Sei sulla pagina 1di 345

Alessandro Bichara Francesco dell’Isola

Elementi di Algebra Tensoriale


con
Applicazioni alla Meccanica dei Solidi

Augustin-Louis Cauchy Albert Einstein Tullio Levi-Civita


La scuola Meccanica di Erone d’Alessandria (III-II a.C.) come descritta da
Pappo, adattamento dalla Synagoge viii., Prefazione 1-3, ed. Hultsch 1022,3-
1028,3 Berlino 1876-1878:

“La Scienza della Meccanica, mio caro Ermodoro, ha molti usi importanti nella vita pratica,
ed è altamente considerata dai filosofi ed attentamente studiata dai matematici, perché ha
il primo posto nello studio degli elementi materiali dell’universo. Essa tratta della stabilità
e del moto dei corpi come effetto dell’azione di forze esterne utilizzando teoremi appropriati
all’argomento. I meccanici della scuola di Erone dividono la Meccanica in Teorica e Tecnica:
la Meccanica Teorica si basa sulla Geometria e l’Aritmetica e comprende l’Astronomia e
la Fisica, quella Tecnica studia l’architettura, l’arte dei metalli, delle rocce e di qualsiasi
cosa che può essere costruito. Colui che fosse addestrato nelle due branche della Meccanica
sarebbe il miglior artefice ed il miglior inventore, possedendo la più versatile delle menti.
Poiché tali doti sono rare nello stesso uomo essi formano i loro studenti seguendo le loro
inclinazioni: 1) i costruttori di potenza meccanica, 2) i costruttori di macchine da guerra, 3)
i costruttori di motori e di pompe idrauliche, 4) i meccanici teorici e sperimentali costruttori
di macchine meravigliose (dimostrative delle leggi della Meccanica) i cui maestri sono Erone
stesso ed Archimede di Siracusa, 5) i costruttori di orologi meccanici. È universalmente
riconosciuto che Archimede sia il solo fra i meccanici che abbia compreso tutte le branche
della Meccanica perché ha potuto applicare la sua mente versatile e genio inventivo a tutti
gli scopi della vita ordinaria tuttavia contribuendo contemporaneamente allo sviluppo della
Geometria e dell’Aritmetica tenendole pure e distinte dalle applicazioni tecnologiche. Perché
si può applicare la Geometria alla Tecnica e con ragione, ma essa per questo non è diminuita
essendo capace di dare contenuto a molte e diverse Tecniche e per questo anzi essa viene
aumentata in significato ed importanza.”
Elementi di Algebra Tensoriale
con
Applicazioni alla Meccanica dei Solidi

Alessandro Bichara Francesco dell’Isola


ii
Indice

Prefazione alla Parte I xi

Prefazione alla Parte II xiii

I Algebra Tensoriale 1
1 SPAZI VETTORIALI 3
1.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Combinazioni lineari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Sottospazi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Generatori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Dipendenza ed indipendenza lineare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 BASI E DIMENSIONE 11
2.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Somme, somme dirette e relazione di Grassmann. . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3 APPLICAZIONI LINEARI 21
3.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Nucleo ed immagine. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 IKn come modello universale di spazio vettoriale n-dimensionale sul campo IK. . . . . . . . . . 26
3.5 Ulteriori proprietà delle applicazioni lineari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 APPLICAZIONI LINEARI E MATRICI 29


4.1 Applicazione lineare associata ad una matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Matrice associata ad un’applicazione lineare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Cambiamenti di base; matrici invertibili. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5 SISTEMI LINEARI 37
5.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2 Sistemi lineari e teorema di Rouché-Capelli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.3 Sistemi omogenei. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.4 Insieme delle soluzioni di un sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.5 Sistemi di Cramer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.6 Lo spazio delle soluzioni di un sistema omogeneo. . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.7 L’insieme delle soluzioni di un sistema compatibile. . . . . . . . . . . . . . . . . . . . . . . . . . 42

6 DIAGONALIZZAZIONE 45
6.1 Definizioni e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.2 Autospazi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.3 Ricerca degli autovalori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.4 Diagonalizzazione di una matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.5 Molteplicità geometrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

iii
iv INDICE

7 PRODOTTI SCALARI. TEORIA GENERALE. 53


7.1 Definizione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.3 Ortogonalità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.4 Matrice simmetrica associata ad un prodotto scalare. . . . . . . . . . . . . . . . . . . . . . . . . 55
7.5 Basi ortogonali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.6 Prodotto scalare non degenere. Prodotti definiti positivi. . . . . . . . . . . . . . . . . . . . . . . 57
7.7 Cambiamenti di basi ortonormali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.8 Complementi ortogonali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

8 DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRn 65


8.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8.2 Endomorfismi simmetrici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.3 Diagonalizzazione degli endomorfismi simmetrici. . . . . . . . . . . . . . . . . . . . . . . . . . . 68

9 ANCORA SUI PRODOTTI SCALARI REALI 71


9.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
9.2 Criterio di Sylvester. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

10 TENSORI ED ALGEBRA TENSORIALE 77


10.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
10.2 Spazio duale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
10.3 Cambiamenti di base in V∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
10.4 Spazio biduale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
10.5 Isomorfismo canonico tra VnIK ed il suo biduale. . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
10.6 Forme multilineari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
10.7 Tensori ed algebra tensoriale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
10.8 Cambiamento delle componenti di un tensore. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
10.9 Tensore contratto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Bibliografia 91

II Applicazioni 93
11 ANCORA SUI TENSORI 95
11.1 Contrazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
11.2 Prodotto duale tra tensori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

12 TENSORI CARTESIANI 103


12.1 Tensori sugli spazi vettoriali dotati di prodotto scalare. . . . . . . . . . . . . . . . . . . . . . . . 103
12.2 Contrazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
12.3 Prodotto scalare tra tensori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

13 TENSORI DOPPI 113


13.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.2 Orientazione per V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
13.3 Trasposto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
13.4 Invarianti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
13.4.1 Decomposizione in parte sferica e parte deviatorica. . . . . . . . . . . . . . . . . . . . . 121
13.5 Tensore aggiunto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
13.6 Il teorema di Cayley-Hamilton. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
13.7 Prodotto scalare tra tensori doppi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
13.8 Tensori simmetrici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
13.9 Tensori antisimmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
13.10Tensori ortogonali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
13.10.1 Angoli di Eulero. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
13.11Teorema di decomposizione additiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.12Teorema di decomposizione polare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
13.13Il teorema di commutazione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
INDICE v

14 CENNI DI ANALISI TENSORIALE 143


14.1 Spazi affini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.2 Applicazioni affini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
14.3 Continuità e differenziabilità. Campi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
14.4 Sistemi di coordinate e varietà affini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
14.4.1 Alcuni sistemi di coordinate nelle varietà affini euclidee. . . . . . . . . . . . . . . . . . . 149
14.4.2 Basi naturali e basi anolonome. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
14.5 La derivata covariante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.6 Derivata covariante lungo curve. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
14.7 Le formule di Frenet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.8 Elementi di geometria gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.8.1 Vettore normale, piano tangente e tensore metrico superficiale. . . . . . . . . . . . . . . 160
14.8.2 Derivata covariante superficiale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
14.8.3 Seconda forma fondamentale: curvatura delle superfici. . . . . . . . . . . . . . . . . . . . 163
14.8.4 Regioni a forma di guscio e Shifters. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
14.9 Operatori differenziali sulle varietà euclidee tridimensionali. . . . . . . . . . . . . . . . . . . . . 167
14.10Teoremi di integrazione sulle varietà euclidee tridimensionali. . . . . . . . . . . . . . . . . . . . 170

15 CENNI DI TEORIA DEI MODELLI 173


15.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
15.2 Morfismi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
15.3 Modelli Matematici di Fenomeni Fisici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
15.3.1 Una visione induttivista del concetto di modello matematico. . . . . . . . . . . . . . . . 177
15.3.2 Una visione deduzionista-falsificazionista del concetto di modello matematico. . . . . . . 177
15.4 Relazione fra Matematica, Scienza e Tecnologia. . . . . . . . . . . . . . . . . . . . . . . . . . . 178

16 CINEMATICA GALILEIANA 181


16.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
16.2 Particelle materiali ed osservatori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
16.3 Cinematica galileiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
16.4 Spazio assoluto delle posizioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
16.5 Lo spazio delle configurazioni come modello dell’insieme degli stati. . . . . . . . . . . . . . . . . 184
16.6 Spazi delle configurazioni finito od infinito dimensionali. . . . . . . . . . . . . . . . . . . . . . . 184
16.6.1 Modelli finito-dimensionali: descrizioni con un numero finito di gradi di libertà. . . . . . 185
16.6.2 Modelli infinito-dimensionali: descrizioni con infiniti gradi di libertà. . . . . . . . . . . . 185
16.7 Continui come modelli di corpi: cinematica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
16.7.1 Configurazioni di un continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
16.7.2 Funzione piazzamento, campi di velocità di un continuo. . . . . . . . . . . . . . . . . . . 187
16.7.3 Descrittori di stato in un continuo. Descrizione lagrangiana o euleriana. . . . . . . . . . 188
16.8 Un caso notevole: continui rigidi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.8.1 Piazzamento rigido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.8.2 Gradi di libertà di un continuo rigido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
16.9 Trasformazioni galileiane delle velocità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16.9.1 Legge di trasformazione galileiana delle velocità e delle accelerazioni nel cambiamento
di osservatore. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.10Formula di rappresentazione euleriana dell’atto di moto rigido. . . . . . . . . . . . . . . . . . . 194

17 DEFORMATICA 199
17.1 Parametri lagrangiani e gradi di libertà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17.2 Vincoli in modelli finito-dimensionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.3 Moto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.4 Sistemi articolati di continui rigidi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.4.1 Vincoli applicati ad un continuo rigido e loro molteplicità. . . . . . . . . . . . . . . . . . 202
17.4.2 Moti rigidi piani. Centro istantaneo di rotazione. . . . . . . . . . . . . . . . . . . . . . . 203
17.4.3 Vincoli interni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
17.4.4 Esempi di sistemi vincolati. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
17.5 Strutture Reticolari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.5.1 Barre elastiche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.5.2 Strutture reticolari, ovvero sistemi di barre elastiche. . . . . . . . . . . . . . . . . . . . . 209
vi INDICE

17.5.3 Espressione lagrangiana dell’energia cinetica per barre. . . . . . . . . . . . . . . . . . . . 209


17.6 Cinematica dei continui tridimensionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.6.1 Funzione piazzamento per continui di Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . 211
17.6.2 Derivata materiale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
17.6.3 Tensore di deformazione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
17.6.4 Il gradiente di velocità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
17.6.5 Bilancio della massa per continui tridimensionali. . . . . . . . . . . . . . . . . . . . . . . 214
17.7 Misure di Deformazione in un Continuo di Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.7.1 Il tensore destro di Cauchy-Green, il tensore di deformazione di Saint-Venant. . . . . . . 216
17.7.2 Allungamento e spostamento angolare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
17.7.3 Velocità di deformazione e velocità di rotazione. . . . . . . . . . . . . . . . . . . . . . . 217
17.7.4 I tensori di deformazione e rotazione infinitesima. . . . . . . . . . . . . . . . . . . . . . . 219

18 EQUAZIONI CARDINALI DELLA DINAMICA E TENSORE DEGLI SFORZI 223


18.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.1.1 Il concetto di Forza è un concetto primitivo. . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.1.2 Il metodo logico-deduttivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.1.3 Le ragioni per cui si debba preferire l’ assiomatica di Noll. . . . . . . . . . . . . . . . . . 224
18.2 Forze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
18.2.1 Tipi di forza applicate ad un continuo. Potenza spesa da un sistema di forze su un
campo di velocità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
18.2.2 Momento di un sistema di Forze e sua variazione al variare del polo. Coppie. . . . . . . 227
18.2.3 Formulazione dell’ assioma sull’obiettività della potenza . . . . . . . . . . . . . . . . . . 227
18.2.4 Conseguenze dell’obiettività della potenza. . . . . . . . . . . . . . . . . . . . . . . . . . 228
18.2.5 L’assioma delle reazioni vincolari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
18.3 Le azioni di contatto in un Continuo di Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
18.3.1 Taglio di Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
18.3.2 Controesempio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
18.3.3 Lemma di Cauchy: ovvero il principio di azione e reazione per i vettori degli sforzi. . . . 233
18.3.4 Il teorema del tetraedro di Cauchy: ovvero della dipendenza lineare del vettore degli
sforzi dalla normale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
18.3.5 Simmetria del tensore degli sforzi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
18.4 Il Teorema di Cauchy - Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
18.4.1 Rappresentazione dello stato di tensione in un continuo di cauchy. Tensioni principali. . 238
18.4.2 Equazione di equilibrio indefinito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241

19 POTENZE VIRTUALI E TENSORI DI PIOLA-KIRCHHOFF 245


19.1 Il metodo delle potenze virtuali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
19.2 Deduzione della legge euleriana di bilancio della forza. . . . . . . . . . . . . . . . . . . . . . . . 246
19.2.1 Definizione dei moti virtuali e potenza virtuale delle forze di inerzia. . . . . . . . . . . . 246
19.2.2 Potenza virtuale delle forze esterne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
19.2.3 Potenza virtuale delle forze interne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
19.2.4 Equazioni locali di bilancio della forza e dati al bordo. . . . . . . . . . . . . . . . . . . . 249
19.2.5 Forma debole della legge euleriana di bilancio della forza. . . . . . . . . . . . . . . . . . 250
19.3 Forma debole della legge lagrangiana di bilancio della forza. . . . . . . . . . . . . . . . . . . . . 250
19.3.1 Potenza virtuale delle forze interne: espressione lagrangiana. . . . . . . . . . . . . . . . 250
19.3.2 Potenza virtuale delle forze esterne: espressione lagrangiana. . . . . . . . . . . . . . . . 251
19.3.3 Assioma delle potenze virtuali in forma lagrangiana. . . . . . . . . . . . . . . . . . . . . 252
19.4 Forma forte della legge di bilancio lagrangiana della forza. . . . . . . . . . . . . . . . . . . . . . 253
19.4.1 Tensori di Piola-Kirchooff. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
19.4.2 Equazioni indefinite di equilibrio lagrangiane. . . . . . . . . . . . . . . . . . . . . . . . . 254

20 MATERIALI ELASTICI 257


20.1 Modellazione delle proprietà materiali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
20.1.1 Assunzioni costitutive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
20.1.2 Assiomi costitutivi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
20.1.3 Il gruppo di simmetria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
20.1.4 Caratterizzazione dei fluidi e dei solidi in base al gruppo di simmetria. . . . . . . . . . . 263
20.2 Elasticità finita per i solidi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
INDICE vii

20.3 Elasticità lineare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274


20.3.1 Linearizzazione delle equazioni costitutive. . . . . . . . . . . . . . . . . . . . . . . . . . . 274
20.3.2 Linearizzazione della legge di bilancio della forza. . . . . . . . . . . . . . . . . . . . . . . 278
20.3.3 Interpretazione meccanica del lavoro delle azioni di contatto. . . . . . . . . . . . . . . . 279
20.3.4 Ancora sul tensore di elasticità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280

21 CRITERI DI RESISTENZA PER I MATERIALI ISOTROPI 285


21.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
21.2 Il dominio di elasticità. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
21.2.1 La funzione di carico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
21.3 Alcuni stati di tensione per il tensore di Piola-Kirchhoff. . . . . . . . . . . . . . . . . . . . . . . 288
21.3.1 Stato di sforzo uniassiale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
21.3.2 Taglio semplice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
21.3.3 Stato di sforzo triassiale con simmetria intorno ad un asse (triassiale di rivoluzione). . . 289
21.3.4 Trazione o compressione isotropa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
21.4 Criterio di Tresca. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
21.5 Criterio di Coulomb. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
21.6 Criterio di Beltrami. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
21.7 Criterio di von Mises. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292

22 DINAMICA DEI SISTEMI FINITO-DIMENSIONALI 295


22.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
22.1.1 La Meccanica Lagrangiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
22.1.2 Serie di Fourier in L2 , analisi modale e riduzione di modelli infinito-dimensionali a
modelli finito-dimensionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
22.2 Moto, traiettoria, velocità Lagrangiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
22.3 Problemi di ottimo e fondamenti di Calcolo delle Variazioni. . . . . . . . . . . . . . . . . . . . . 297
22.3.1 Principio di Fermat, funzionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
22.3.2 Equazioni di Eulero-Lagrange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
22.4 Energia cinetica e potenziale in sistemi di corpi vincolati. . . . . . . . . . . . . . . . . . . . . . 301
22.5 Piccoli moti intorno ad una configurazione d’equilibrio stabile. . . . . . . . . . . . . . . . . . . . 305
22.5.1 Configurazioni di equilibrio stabili ed instabili. . . . . . . . . . . . . . . . . . . . . . . . 305
22.5.2 Moti nell’intorno di una configurazione di equilibrio stabile. Analisi Modale. . . . . . . . 306

Bibliografia 313

A RICHIAMI DI ALGEBRA 315


A.1 Insiemi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
A.1.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
A.1.2 Operazioni tra insiemi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
A.1.3 Relazioni ed applicazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
A.2 Gruppi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
A.2.1 Definizioni e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
A.3 Campi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
A.3.1 Definizione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
A.4 Matrici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
A.4.1 Definizioni e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
A.4.2 Determinante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
A.4.3 Aggiunta ed inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
A.4.4 Rango. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

Indice analitico 325


viii INDICE
La stesura di questo manuale è stata resa possibile da un finan-
ziamento erogato dal Comune di Cisterna di Latina e dalla sua
istituzione “Conoscere”

ix
x
Prefazione alla Parte I

La genesi di queste pagine è da un lato semplice e dall’altro assai inusuale: dovendo approntare un curriculum
per la Laurea Specialistica in Ingegneria per l’Ambiente ed il Territorio (per la Sede di Latina de “La Sapienza”)
con Francesco dell’Isola si è pensato di tenere due corsi (cercando di coordinarne i contenuti, tempi e modalità
di svolgimento) per così dire “paralleli”: uno di Geometria ed uno di Meccanica dei Solidi. Questo volume
nasce, pertanto, dalla necessità di fornire agli studenti un riferimento scritto per i corsi di “Metodi tensoriali
per l’Ingegneria” e di Scienza delle Costruzioni. Naturalmente, come ogni prima stesura, questo testo è
lacunoso e perfettibile. Ogni suggerimento teso a migliorarlo sarà gradito. Agli autori (ed a me in particolare)
corre l’obbligo (ma soprattutto il piacere) di rivolgere un caloroso ringraziamento al Dott. Davide Spinello
che, con paziente lavoro di stesura (ma anche con quegli acuti suggerimenti che caratterizzano gli studenti più
promettenti) ha consentito la pubblicazione di questo lavoro.

Alessandro Bichara

xi
xii PREFAZIONE ALLA PARTE I
Prefazione alla Parte II

Uno dei risultati delle recenti riforme del sistema educativo italiano, ed in particolare di quello universitario,
è che quasi tutti gli studenti hanno perso la capacità di studiare utilizzando i libri di testo. L’abitudine che va
sempre più diffondendosi è quella di affidarsi alla tradizione orale: le lezioni dei docenti, ma anche i racconti
ed i resoconti dei colleghi degli anni precedenti.
Questa circostanza è sintomo di una profonda malattia dell’università italiana ed è prodromo di gravi
difficoltà per la nostra società se è vero, come ampiamente discusso da G. Bigatti nel Capitolo La Matrice di
una nuova Cultura Tecnica del saggio Amministrazione, formazione e professione: gli ingegneri in Italia tra
Sette e Ottocento ([4], Bibliografia relativa alla Parte II), curato da L. Blanco, che la nascita della moderna
figura dell’ingegnere, protagonista dell’inarrestabile progresso tecnologico avvenuto nell’Ottocento, è dovuta
all’abbandono dell’antico modello di insegnamento basato sulla trasmissione orale del sapere.
Lo studente segue, spesso distrattamente, la lezione e ritiene che questo sia sufficiente: nessuno sforzo viene
fatto per fare proprie le idee che il corso intende trasmettere e tutti i tentativi di attirare la sua attenzione sono
trattati con fastidio e talvolta ostilità. L’atteggiamento più diffuso porta a richiedere che questioni complesse
siano esposte brevemente. Mi sono spesso sentito chiedere di spiegare, in due parole, il principio dei lavori
virtuali oppure il metodo degli integrali di Mohr oppure in che cosa consista l’analisi modale di una struttura
(qualche volta anche la teoria delle equazioni differenziali o addirittura il perché sia impossibile dividere per
zero).
Quindi non mi aspetto che molti studenti leggano, addirittura!, questa introduzione. A quei pochi che lo
faranno voglio consigliare di non far sapere assolutamente ai loro colleghi che si sono dedicati a questa strana
attività: non vorrei essere causa di loro problemi di socializzazione.
In realtà mi è accaduto spesso di entrare in polemica discutendo sulle scelte che debbono essere fatte
nel concepire un testo da utilizzare come supporto ad un corso universitario. Alla fine mi sono rassegnato:
viviamo un ciclo storico (di quelli descritti da G.B. Vico) nel quale è alla moda ritenere che le uniche attività
intellettuali utili siano quelle immediatamente dirette alla pratica: ogni sforzo per basare le applicazioni
tecnologiche su solide basi teoriche viene deriso apertamente ed aspramente avversato.
I pericoli per una società nella quale questa tendenza prende il sopravvento sono lucidamente descritti
nel bellissimo saggio di Lucio Russo “La Rivoluzione Dimenticata” ([35], Bibliografia relativa alla Parte II).
Rimandiamo a quel saggio per una approfondita descrizione delle ragioni per le quali si deve resistere alla
citata tendenza.
In questa introduzione si vuole semplicemente affermare esplicitamente quello che sarà sotto gli occhi di
ogni lettore che studierà criticamente le pagine seguenti: l’algebra lineare e tensoriale sono uno strumento
indispensabile per lo studio dei fenomeni descritti dalle teorie meccaniche. Poichè tali teorie sono la base di
molte tecnologie correntemente utilizzate nelle applicazioni ingegneristiche (e questo era noto fin dai tempi
della rivoluzione scientifica ellenistica: si veda ancora il saggio di Russo ed il brano in quarta di copertina)
possiamo concludere che le matematiche sono strumento indispensabile alla pratica ingegneristica.
Questa affermazione è stata considerata infondata in varie epoche e di conseguenza spesso nella storia delle
istituzioni universitarie si è sentita la necessità di semplificare il curriculum formativo degli allievi ingegneri: è
questa stessa storia che ci insegna quali siano gli esiti di tali semplificazioni. Rimandando al citato saggio [4],
si ricordano gli effetti disastrosi sulla qualità del lavoro dei professionisti iscritti all’albo milanese nella prima
metà dell’Ottocento a causa dell’abilitazione alla professione di ingegnere assicurata per mezzo di opportuni
ope legis a tecnici non in possesso di titoli accademici e quindi di una adeguata preparazione teorica ma forti
solo di una lunga attività professionale: la Scuola di Ingegneria Milanese dovette essere rifondata da professori
provenienti da Vienna e Parigi.
È di quell’epoca l’invenzione di un neologismo che molto ha fatto discutere i moderni riformatori: l’agget-
tivo propedeutico ed il sostantivo ad esso associato propedeuticità. Attestato fin dal 1829 questo aggettivo
è definito dal Grande Dizionario Italiano dell’uso (il cosiddetto De Mauro) come segue: propedeutico=che
serve da introduzione ad una scienza. La radice utilizzata è παιs=fanciullo da cui deriva παιδεύω=educo
che insieme al prefisso πρo=prima produce πρoπαίδευσιs=istruzione preventiva attestato in epoca elleni-

xiii
xiv PREFAZIONE ALLA PARTE II

stica. πρoπαιδευτ ικós=propedeutico, sebbene non utilizzato nei testi greci a noi pervenuti, potrebbe essere
stato già coniato in quell’epoca. La ragion d’essere di questo testo e della mia collaborazione con il Prof.
Bichara è riaffermare che nella formazione dell’ingegnere sono indispensabili un numero congruo di discipline
propedeutiche a quelle esclusivamente ingegneristiche più specificatamente applicative.
Mi preme ringraziare qui esplicitamente l’Ing. Davide Spinello per l’impegno che ha profuso nella stesura
di questo testo. Tutti i Capitoli della Parte II sono il risultato di lunghe ed interessanti discussioni che mi
hanno dimostrato la sua cultura e passione per la scienza e che mi hanno molto arricchito: l’Ing. Spinello
deve essere considerato co-autore a tutti gli effetti almeno dei Capitoli 19 e 20 sulle Potenze Virtuali e sulle
Equazioni Costitutive.
Devo anche ringraziare per la loro collaborazione gli ingegneri Giulio Sciarra, Stefano Vidoli, Corrado
Maurini.

Francesco dell’Isola
Parte I

Algebra Tensoriale

1
Capitolo 1

SPAZI VETTORIALI

1.1 Definizione e prime proprietà.


Siano (V, +) un gruppo abeliano e (IK, +, ·) un campo, che nel seguito verranno denotati con V e IK, rispet-
tivamente. Diremo prodotto esterno sinistro di IK per V ogni applicazione ω : IK × V → V del prodotto
cartesiano di IK per V in V. Se ω è un prodotto esterno sinistro di IK per V e risulta ω((k, v)) = w, scriveremo
anche kv = w. Osserviamo esplicitamente che il prodotto esterno sinistro di IK per V è una legge che associa
ad ogni coppia (k, v), costituita da un elemento di IK e da un elemento di V, un elemento di V da dirsi
prodotto di k per v.
Se V è un gruppo abeliano, IK è un campo ed ω è un prodotto esterno sinistro di IK per V, diremo che la
terna VIK = (V, IK, ω) è uno spazio vettoriale sinistro costruito sul campo IK, se essa verifica gli assiomi
seguenti:

∀h, k ∈ IK, ∀v ∈ V, (h + k)v = hv + kv. (1.1)


∀h ∈ IK, ∀v, w ∈ V, h(v + w) = hv + hw. (1.2)
∀h, k ∈ IK, ∀v ∈ V, (kh)v = h(kv). (1.3)
∀v ∈ V, 1v = v. (1.4)

Evidentemente il simbolo 00 100 che compare nella (1.4) denota l’unità moltiplicativa del campo IK.
Analogamente a quanto appena visto, è possibile definire il prodotto esterno destro di V per IK, quale
applicazione ω 0 : V × IK → V. Se la terna (V, IK, ω 0 ) verifica le proprietà che si ottengono dalle (1.1), (1.2),
(1.3) e (1.4), invertendo l’ordine in cui in esse compaiono gli elementi di IK e di V, diremo che (V, IK, ω 0 ) è
uno spazio vettoriale destro costruito sul campo IK.
In questi appunti, tratteremo soltanto gli spazi vettoriali sinistri, avvertendo che per gli spazi vettoriali
destri valgono proprietà analoghe a quelle degli spazi vettoriali sinistri. Inoltre, preannunciamo sin da ora che
in un numero successivo proveremo che tali due concetti sono sostanzialmente equivalenti.
Nel seguito, quindi, con il termine spazio vettoriale intenderemo sempre sottinteso l’attributo sinistro.
Se VIK è uno spazio vettoriale sul campo IK, diremo vettori gli elementi di V e diremo scalari gli elementi
di IK. In tal caso, diremo proprietà distributiva del prodotto di uno scalare per un vettore rispetto alla
somma di scalari e rispetto alla somma di vettori gli assiomi (1.1) e (1.2), rispettivamente.
Se VIK è uno spazio vettoriale sul campo IK, risultano individuati lo scalare nullo 0 ed il vettore nullo 0,
elemento neutro del gruppo (V, +); al riguardo proviamo ora che:

Proposizione 1 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto dello scalare nullo per un
vettore è il vettore nullo, cioè:
∀v ∈ V, 0v = 0. (1.5)

Dimostrazione Si tratta di provare che, ∀w ∈ V, risulta 0v + w = w. All’uopo, osserviamo che:

0v + w = 0v + v − v + w = 0v + 1v − v + w
= (0 + 1)v − v + w = 1v − v + w = v − v + w
= w. (1.6)

Proviamo ora che:

3
4 CAPITOLO 1. SPAZI VETTORIALI

Proposizione 2 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto di uno scalare k per il vettore
nullo è il vettore nullo. Inoltre, se il prodotto di k per v è il vettore nullo, almeno uno tra k e v è nullo.

Dimostrazione Cominciamo con il provare che:

∀k ∈ IK : k0 = 0. (1.7)

Infatti (cfr. proposizione 1) il vettore nullo è dato da

0 =0v, ∀v ∈V, (1.8)

e quindi
k0 =k (0v) = (k0) v =0v = 0. (1.9)
Da quanto appena detto e dalla proposizione 1 segue che, dati k ∈ IK e v ∈V, se uno dei due fattori è nullo
si ha
kv = 0. (1.10)
Assumiamo viceversa che sia kv = 0. Se k 6= 0, ∃ k −1 ∈ IK. Moltiplicando ambo i membri della (1.10) per k−1
si ha: ¡ ¢
k −1 (kv) = k −1 0 = 0 ⇒ k −1 k v = 0 ⇒1v = 0 ⇒ v = 0. (1.11)

Proposizione 3 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto dell’opposto dell’unità molti-
plicativa di IK per un vettore v è l’opposto di v, cioè:

∀v ∈ V, − 1v = −v. (1.12)

Dimostrazione È sufficiente osservare che, a norma della 1 e delle (1.1) e (1.2), risulta:

(−1)v + v = −1v + 1v = (−1 + 1)v = 0v = 0. (1.13)

1.2 Esempi.
Daremo ora alcuni esempi di spazi vettoriali. Se IK è un campo, sia V = IKn , cioè il prodotto cartesiano di
IK per se stesso effettuato n volte; allora V è la totalità delle n-ple ordinate di elementi di IK.
Se x = (x1 , x2 , ..., xn ) e y = (y1 , y2 , ..., yn ) sono due elementi di V è possibile definire la loro somma nel
modo che segue:
x + y = (x1 + y1 , x2 + y2 , ..., xn + yn ). (1.14)
È poi possibile definire il prodotto ”·” di uno scalare k ∈ IK per l’elemento x = (x1 , x2 , ..., xn ) ∈ V nel
modo che segue:
k · x = (kx1 , kx2 , ..., kxn ). (1.15)
Con tali definizioni di somma in V e di prodotto di un elemento di IK per un elemento di V, è possibile
provare che:

Proposizione 4 La terna (V, IK, ·) è uno spazio vettoriale.

Lo spazio vettoriale di cui alla proposizione precedente verrà nel seguito denotato con il simbolo IKn .
Se IR è il campo reale e C è il gruppo additivo dei complessi, allora è subito visto che la terna (C, IR, ·),
ove ”·” è l’ordinario prodotto di un reale per un complesso, è uno spazio vettoriale sui reali.
Analogamente, le terne (C, Q, ·) e (IR, Q, ·), ove “·” è l’ordinario prodotto numerico, risultano degli spazi
vettoriali sul campo razionale.
Se IK è un campo, sia IK[x], l’insieme dei polinomi di una indeterminata x a coefficienti in IK. Rispetto
all’ordinaria somma ”+” tra polinomi, la coppia (IK[x], +) è un gruppo abeliano; se poi ”·” è l’ordinario
prodotto di IK per un polinomio, la terna (IK[x], IK, ·) risulta uno spazio vettoriale sul campo IK; tale spazio
sarà nel seguito denotato con IK[x].
Se F è l’insieme delle funzioni reali di una variabile reale, f e g sono due elementi di F, è possibile definire
la f + g nel modo che segue:
(f + g)(x) = f (x) + g(x). (1.16)
1.3. COMBINAZIONI LINEARI. 5

Con tale definizione di somma la coppia (F, +) risulta un gruppo abeliano, il cui elemento neutro è la
funzione costante identicamente nulla ed in cui l’opposto della funzione f è la funzione −f , così definita:

(−f )(x) = −f (x). (1.17)

Possiamo poi definire il prodotto ”·” di un numero reale k per la funzione f di F nel modo che segue:

(k · f )(x) = kf (x). (1.18)

Con tale definizione la terna (F, IR, ·) risulta uno spazio vettoriale sul campo reale.
Sia VIK uno spazio vettoriale sul campo IK. Diremo che VIK è lo spazio nullo se esso è costituito da un
solo vettore che, allora, necessariamente è il vettore nullo.

1.3 Combinazioni lineari.


Sia VIK uno spazio vettoriale sul campo IK. Se v1 , v2 , ..., vn sono vettori di V ed x1 , x2 , ..., xn sono scalari
di IK, diremo combinazione lineare di v1 , v2 , ..., vn a coefficienti x1 , x2 , ..., xn , rispettivamente, il vettore v
così definito:
Xn
v = x1 v1 + x2 v2 + ... + xn vn = xi vi . (1.19)
i=1

Se J è l’insieme (eventualmente infinito) di vettori di V, diremo combinazione lineare di J ogni vettore di


V che risulti combinazione lineare di un numero finito di vettori di J. Pertanto, se J è finito ed è costituito dagli
n vettori v1 , v2 , ..., vn , allora ogni vettore della forma (1.19), al variare di x1 , x2 , ..., xn in IK è combinazione
lineare di J.

1.4 Sottospazi.
Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, diremo che esso è un sottospazio
di V se, e solo se, esso risulta uno spazio vettoriale rispetto alle operazioni definite in V; cioè se, e solo se, W
risulta un sottogruppo abeliano di V ed inoltre il prodotto di uno scalare per un elemento di W è un elemento
di W; osserviamo esplicitamente che in tal caso il prodotto esterno di uno scalare per un vettore di W verifica
necessariamente le (1.1), (1.2), (1.3) e (1.4), poichè tali proprietà sono verificate per il prodotto di uno scalare
per un elemento di V e W è un sottoinsieme di V. In definitiva, tenuto conto delle (A.56), (A.57), (A.58) e di
quanto appena detto, possiamo provare ora che:

Proposizione 5 Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, allora W risulta
un sottospazio di V se, e solo se, sussistono le:

W 6= ∅. (1.20)
v, w ∈ W ⇒ v + w ∈ W. (1.21)
k ∈ IK : v ∈ W ⇒ kv ∈ W. (1.22)

Dimostrazione Se W è un sottospazio, allora esso è un sottogruppo del gruppo V e quindi esso verifica
la (A.57) e la (A.58), cioè la (1.20) e la (1.21); inoltre, il prodotto di uno scalare per un vettore di W deve
appartenere a W, onde la (1.22).
Se invece W verifica le tre proprietà in enunciato, esso verifica la (A.56) e la (A.57); dalla (1.22), per
k = −1, si deduce la (A.58) e quindi W è un sottogruppo di V. Dalla (1.22) si deduce che il prodotto di uno
scalare per un vettore di W è un vettore di W, onde W risulta un sottospazio di V.
Proveremo ora che:

Proposizione 6 Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, allora W risulta
un sottospazio di V se, e solo se, sussistono le:

W 6= ∅, (1.23)
h, k ∈ IK : v, w ∈ W ⇒ hv + kw ∈ W. (1.24)
6 CAPITOLO 1. SPAZI VETTORIALI

Dimostrazione In forza della prop. precedente e poichè la (1.20) e la (1.23) sono uguali si tratta di
provare che la (1.24) è equivalente alle (1.21) e (1.22).
Se h, k ∈ IK; v, w ∈ W dalla (1.22) segue che hv e kw ∈ W, onde, per la (1.21), si trae che hv + kw ∈ W,
cioè la (1.24).
Supponiamo ora che valga la (1.24); se h = k = 1, da essa si deduce la (1.21); se invece h = 0, si deduce
la (1.22).
La proposizione precedente si enuncia più suggestivamente dicendo che il sottoinsieme W dello spazio
vettoriale V è un sottospazio di V se, e solo se, esso risulta non vuoto e, contenendo due vettori, contiene ogni
loro combinazione lineare.
Se W è un sottospazio dello spazio vettoriale V scriveremo anche:

W ≤ V. (1.25)

Proviamo che:

Proposizione 7 Sia VIK uno spazio vettoriale sul campo IK. Se W ≤ V, allora necessariamente il vettore
nullo di V appartiene a W, cioè:
W ≤ V ⇒ 0 ∈ W. (1.26)

Dimostrazione Poichè W è un sottospazio di V, allora necessariamente esso risulta non vuoto; sia allora v
∈ W; in forza della (1.22) ogni multiplo di v, secondo uno scalare k, appartiene a W; in particolare, appartiene
a W il prodotto dello scalare nullo per v, cioè (cfr. proposizione 1) il vettore nullo.
Se J è un insieme di indici, sia {Wi : i ∈ J } una famiglia di sottospazi dello spazio vettoriale VIK . Per
l’insieme dei sottospazi della famiglia proveremo ora che:

Proposizione 8 Sia VIK uno spazio vettoriale sul campo IK. Se F = {Wi : i ∈ J } è una famiglia di sottospazi
di V, allora l’intersezione dei sottospazi della famiglia F è necessariamente un sottospazio di V, cioè
\
∀i ∈ J Wi ≤ V ⇒ Wi ≤ V. (1.27)
i∈J

Dimostrazione Dalla prop. 7 segue che ∀i ∈ J risulta 0 ∈ Wi e quindi:


\ \
0∈ Wi ⇒ Wi 6= ∅. (1.28)
i∈J i∈J

Pertanto, l’intersezione dei sottospazi di F verifica la (1.23). Siano ora h e k due qualsivoglia scalari e siano v
e w due qualsiasi elementi della intersezione dei sottospazi di F. Poichè v e w appartengono alla intersezione
dei Wi , onde la combinazione lineare hv + kw appartiene,
T in forza della prop. 6, a ciascun sottospazio Wi .
Ne segue che tale combinazione lineare appartiene a Wi , che, pertanto, verifica la (1.24). Da quanto detto
i∈J
in forza della prop. 6, si ha l’asserto.
La prop. precedente si enuncia in modo più suggestivo dicendo che l’intersezione di sottospazi di uno
spazio vettoriale è un sottospazio.
Diamo ora alcuni esempi di sottospazi di uno spazio vettoriale:
Se VIK è uno spazio vettoriale sul campo IK, allora esso è un sottospazio di se stesso; il sottoinsieme {0}
di V, costituito solo dal vettore nullo, è un sottospazio di V, che diremo sottospazio nullo.
Sia VIK = IR3 . I seguenti insiemi di IR3 risultano sottospazi vettoriali:

A = {(x, y, z) : x = 0} ,
B = {(x, y, z) : x + y = 0} , (1.29)
C = {(x, y, z) : 2x + 3y + 4z = 0} .

Proviamo ora che:

Proposizione 9 Sia J un qualunque insieme di vettori, non vuoto, dello spazio vettoriale VIK . Sia W
l’insieme di tutte le combinazioni lineari di J. Allora W è un sottospazio di V e W contiene J.

Dimostrazione Ogni vettore di J è pensabile come combinazione lineare di se stesso a coefficiente uguale
a ”1”, onde J ⊆ W e, essendo J non vuoto, W verifica la (1.23).
1.5. GENERATORI. 7

Siano ora v e w due vettori di W. Allora, per definizione di W, sia v che w risultano ciascuno combinazione
lineare di un numero finito di vettori di J; cioè, esistono vettori v1 , v2 , ..., vn e w1 , w2 , ..., wm di J e scalari
x1 , x2 , ..., xn ed y1 , y2 , ..., ym tali che risulta:
n
X m
X
v= xi vi w= yj wj . (1.30)
i=1 j=1

Ogni combinazione lineare di v e w a coefficienti h e k (del campo IK), rispettivamente, è allora della forma:
n
X m
X
hv+kw = hxi vi + kyj wj . (1.31)
i=1 i=1

Pertanto, hv+ kw è combinazione lineare dei vettori v1 , v2 , ..., vn e w1 , w2 , ..., wm di J, onde hv+kw
appartiene a W, il quale allora verifica anche la (1.24) e risulta un sottospazio.

1.5 Generatori.
Sia VIK uno spazio vettoriale sul campo IK. Se J è un sottoinsieme di V, risulta individuata la famiglia
F = {Wi : i ∈ J } dei sottospazi di V, ciascuno dei quali contiene J; tale famiglia non è vuota in quanto
almeno V appartiene ad essa. L’intersezione dei sottospazi di F è un sottospazio di V (cfr. prop. 8), che
diremo generato da J e denoteremo con hJi. Evidentemente risulta J ⊆ hJi; infatti essendo J contenuto in
ciascun elemento di F, è necessariamente contenuto nella loro intersezione. Il sottospazio hJi è quindi il ”più
piccolo” sottospazio di V che contiene J.
Se l’insieme J genera hJi diremo che J è un insieme di generatori per hJi e che hJi è generato da J.
Al riguardo proviamo che:
Proposizione 10 Siano VIK uno spazio vettoriale sul campo IK e J un sottospazio di V. Allora, se J = ∅,
necessariamente hJi è il sottospazio nullo di V. Se invece J è non vuoto, allora il sottospazio hJi coincide
con il sottospazio W di V, costituito da tutte le combinazioni lineari di J (cfr. prop. 9).
Dimostrazione Sia F = {Wi : i ∈ J } la famiglia dei sottoinsiemi di V, ciascuno dei quali contiene J;
se J = ∅, allora F è costituita da tutti i sottospazi di V, onde anche il sottospazio nullo {0} ∈ F, onde
hJi = {0}.
Se invece J 6= ∅, allora (cfr. prop. 9) risulta W ∈ F, onde hJi ⊆ W; d’altra parte, poichè J ⊆ Wi ,
(∀i ∈ J ), il sottospazio Wi , contenendo i vettori di J contiene ogni loro combinazione lineare e quindi:
(∀i ∈ J ) W ⊆ Wi ; (1.32)
Pertanto, W risultando contenuto in ogni spazio di F, risulta contenuto nella loro intersezione hJi, cioè
W ⊆ hJi. Poichè avevamo già visto anche hJi ⊆ W, risulta necessariamente hJi = W.
Diamo ora alcuni esempi relativi al concetto di insieme di generatori per un sottospazio:
• Sia VIK = IR3 . Se J = IR3 , allora, ovviamente: hJi = IR3 .
• Se invece J = {e1 , e2 , e3 }, ove e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), allora hJi, dovendo, in forza
della prop. 10, coincidere con la totalità delle combinazioni lineari dei vettori e1 , e2 ed e3 , è ancora
uguale ad IR3 .
• Sia ora J = {e1 , e2 }, allora hJi = {(x, y, 0) : x, y ∈ IR} .
• Sia ora VIK = (F, IR, ·) lo spazio vettoriale delle funzioni reali di una variabile reale. Se J = {sin, cos},
allora hJi è il sottospazio delle funzioni della forma λ sin +µ cos con (λ, µ ∈ IR).

1.6 Dipendenza ed indipendenza lineare.


Sia VIK uno spazio vettoriale sul campo IK. Se v1 , v2 , ..., vn sono vettori di V diremo che essi sono linearmente
dipendenti se esiste una loro combinazione lineare, a coefficienti non tutti nulli, che sia uguale al vettore
nullo. Diremo invece che essi sono linearmente indipendenti se l’unica loro combinazione lineare che sia
uguale al vettore nullo è quella a coefficienti tutti nulli, cioè se:
n
X
xi vi = 0 ⇒ ∀i = 1, 2, ..., n, xi = 0. (1.33)
i=1
8 CAPITOLO 1. SPAZI VETTORIALI

Sia ora J un insieme di vettori (eventualmente infinito) appartenenti allo spazio vettoriale VIK costruito
sul campo IK. Diremo che J è linearmente indipendente se ogni combinazione lineare di J, a coefficienti
non tutti nulli, risulta diversa dal vettore nullo. Diremo invece che J è linearmente dipendente se esiste
una combinazione lineare di J, a coefficienti non tutti nulli che sia uguale al vettore nullo.
Possiamo ora provare che:

Proposizione 11 Siano VIK uno spazio vettoriale sul campo IK e J un sottoinsieme di V. Allora J è
linearmente dipendente se, e solo se, esiste un sottoinsieme I di J che sia linearmente dipendente.

Dimostrazione Se J è dipendente, basta porre I = J ed è subito visto che J contiene un sottoinsieme


dipendente.
Sia ora I un sottoinsieme di J che sia dipendente. Poichè I è dipendente, esiste una combinazione lineare
di un numero finito di vettori di I, che denotiamo con v1 , v2 , ..., vn , a coefficienti non tutti nulli, che è uguale
al vettore nullo. Poichè I ⊆ J i vettori v1 , v2 , ..., vn appartengono a J, il quale risulta allora dipendente.

Proposizione 12 Siano VIK uno spazio vettoriale sul campo IK e J un sottoinsieme di V. Se J contiene il
vettore nullo, allora J è necessariamente linearmente dipendente.

Dimostrazione Dalla prop. 2 segue che il vettore nullo è dipendente e quindi J contiene il sottoinsieme
{0} che è dipendente; dalla prop. 11 segue allora l’asserto.

Proposizione 13 Siano VIK uno spazio vettoriale sul campo IK e v1 , v2 , ..., vn vettori indipendenti di V.
Allora, i vettori v1 , ..., vn , vn+1 risultano linearmente dipendenti se, e solo se, vn+1 appartiene al sottospazio
generato da {v1 , v2 , ..., vn }.

Dimostrazione Se vn+1 ∈ hv1 , v2 , ..., vn i, allora è combinazione lineare di v1 , v2 , ..., vn e quindi esistono
scalari x1 , x2 , ..., xn tali che risulti:
Xn
vn+1 = xi vi , (1.34)
i=1
e ne segue:
n
X
vn+1 − xi vi = 0. (1.35)
i=1

Da tale ultima uguaglianza si deduce che la combinazione lineare di v1 , ..., vn , vn+1 a coefficienti rispettivi
−x1 , −x2 , ..., −xn ed 1 è uguale al vettore nullo; poichè i suddetti coefficienti sono non tutti nulli (1 6= 0) i
vettori v1 , ..., vn , vn+1 risultano dipendenti.
Se invece v1 , ..., vn , vn+1 risultano dipendenti, allora esiste una loro combinazione lineare:
n+1
X
xi vi = 0, (1.36)
i=1

con almeno uno tra i coefficienti x1 , ..., xn , xn+1 diverso dallo scalare nullo. Non può risultare xn+1 = 0,
altrimenti uno tra x1 , x2 , ..., xn sarebbe diverso da zero ed inoltre avremmo x1 v1 + x2 v2 + ... + xn vn = 0,
cioè i vettori v1 , v2 , ..., vn sarebbero dipendenti, contro l’assunto. Pertanto xn+1 6= 0; dividendo allora ambo
i membri della (1.36) per xn+1 e con ovvi passaggi otteniamo la:
n
X
−1
vn+1 = −(xn+1 ) xi vi , (1.37)
i=1

da cui subito segue che vn+1 ∈ hv1 , v2 , ..., vn i.


Quale immediata conseguenza della proposizione precedente, subito segue:

Proposizione 14 Siano VIK uno spazio vettoriale sul campo IK e v1 , v2 , ..., vn vettori di V. Allora v1 , v2 , ..., vn
sono linearmente dipendenti se, e solo se, uno tra essi è combinazione lineare di restanti.

Illustreremo ora, con qualche esempio, i concetti di dipendenza ed indipendenza lineare.


Sia VIK = IR3 . I tre vettori e1 = (1, 0, 0), e2 = (0, 1, 0) ed e3 = (0, 0, 1) risultano linearmente indipendenti,
come è immediato verificare. Risultano indipendenti anche i tre vettori (1, 1, 0), (1, 0, 1) e (0, 1, 1). Risultano
invece dipendenti i quattro vettori e1 , e2 , e3 , v =(1, 1, 1).
Proviamo infine che:
1.6. DIPENDENZA ED INDIPENDENZA LINEARE. 9

Proposizione 15 Sia VIK = (F, IR, ·) lo spazio vettoriale delle funzioni reali di una variabile reale. Le due
funzioni sin e cos di V risultano linearmente indipendenti.

Dimostrazione Si tratta di provare che se λ sin +µ cos (ove λ, µ ∈ IR) è la funzione identicamente nulla
0, allora necessariamente risulta λ = µ = 0. Se

λ sin +µ cos = 0, (1.38)

allora è:
∀x ∈ IR, (λ sin +µ cos)(x) = 0(x) = 0. (1.39)
Pertanto, deve essere
∀x ∈ IR, λ sin(x) + µ cos(x) = 0. (1.40)
Dalla (1.40), posto x = 0, si trae λ sin(0) + µ cos(0) = 0; ponendo invece x = π/2, otteniamo λ sin(π/2) +
µ cos(π/2) = 0. Da tali due relazioni, si deduce λ = µ = 0.
10 CAPITOLO 1. SPAZI VETTORIALI
Capitolo 2

BASI E DIMENSIONE

2.1 Definizione e prime proprietà.


Sia VIK uno spazio vettoriale sul campo IK. Diremo base di V ogni insieme di generatori linearmente
indipendente di V. Al riguardo sussiste la seguente notevole proposizione di cui omettiamo la complessa
dimostrazione:

Proposizione 16 Ogni spazio vettoriale non nullo ammette almeno una base. Ogni base dello spazio nullo è
vuota.

Diamo subito alcuni esempi di basi per uno spazio vettoriale:


Sia VIK = IR3 . I tre vettori e1 = (1, 0, 0), e2 = (0, 1, 0) ed e3 = (0, 0, 1) risultano linearmente indipendenti
e costituiscono un insieme di generatori di IR3 . Pertanto l’insieme B = {e1 , e2 , e3 } è una base per IR3 . Più
in generale, se VIK = IKn , l’insieme B = {e1 , e2 , ..., en }, ove (∀i = 1, 2, ..., n) ei è la n-pla ordinata di scalari
tutta nulla, eccezion fatta per l’i-ma componente che è uguale all’unità ”1” di IK, è una base per IKn . Tale
base prende il nome di base naturale di IKn .
Se VIK = IR3 , esempi di basi, diverse da quella naturale, sono dati dai seguenti insiemi:

{(1, 1, 0), (1, 0, 1), (0, 1, 1)} ;


{(1, 1, 0), (1, 0, 1), (1, 1, 1)} ; (2.1)
{(a, 0, 0), (0, b, 0), (0, 0, c)} , ove abc 6= 0.
© ª
Se VIK = IK[x], una base per V è data dall’insieme B = 1, x, x2 , ..., xi , ... dei monomi che si riducono ad
una potenza della indeterminata x. Infatti ogni polinomio di IK[x] è combinazione lineare di B, onde B genera
V; inoltre una combinazione lineare di B è il polinomio nullo se, e solo se, i suoi coefficienti sono tutti nulli,
onde B è indipendente; pertanto B è una base di V.
Nel seguito noi tratteremo soltanto degli spazi vettoriali che ammettono una base finita (cioè costituita
da un numero finito di vettori). Avvertiamo che molte delle proposizioni che proveremo al riguardo, valgono,
con convenienti modificazioni, anche per spazi vettoriali che non ammettono basi finite. Prima di passare
alla trattazione di spazi vettoriali che ammettono basi finite, diamo un esempio di spazio vettoriale che non
ammette alcuna base finita, provando che:

Proposizione 17 Ogni base dello spazio vettoriale VIK = IK[x] dei polinomi di una indeterminata x a
coefficienti nel campo IK è necessariamente infinita.

Dimostrazione Procediamo per assurdo. Supponiamo dunque che IK[x] ammetta una base finita B. Se
B = {p1 (x), p2 (x), ..., pn (x)}, siano g1 , g2 , ..., gn i gradi dei polinomi p1 (x), p2 (x), ..., pn (x), rispettivamente.
Poichè B è una base di IK[x] essa genera V ed ogni polinomio di IK[x] è combinazione lineare dei polinomi di
B. Pertanto risulta:

p(x) ∈ IK[x] ⇒ ∃ k1 , k2 , ..., kn ∈ IK : p(x) = k1 p1 + k2 p2 + ... + kn pn . (2.2)

Dalla (2.2) segue subito che, detto g il grado di p(x), necessariamente risulta:

g ≤ γ = max {g1 , g2 , ..., gn } . (2.3)

11
12 CAPITOLO 2. BASI E DIMENSIONE

Pertanto ogni polinomio di IK[x] ha un grado non superiore a γ. Però, il polinomio xγ+1 appartiene a IK[x] ed
il suo grado è superiore a γ. Si è così ottenuta una contraddizione, nata dall’aver supposto che V ammetta
una base finita. Pertanto, ogni base di V è necessariamente infinita.
Proviamo ora che:

Proposizione 18 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è un insieme
di vettori di V, B risulta una base per V se, e solo se, ogni vettore di V si scrive in un modo ed in un modo
soltanto come combinazione lineare dei vettori di B.

Dimostrazione Se B è una base, allora i vettori v1 , v2 , ..., vn generano V; pertanto, ogni vettore di V
appartiene a hv1 , v2 , ..., vn i e quindi si scrive in almeno un modo come combinazione lineare di v1 , v2 , ..., vn ;
proviamo ora che tale modo è unico.
Supponiamo allora che risulti, per v ∈ V:
n
X
v = xi vi , (2.4)
i=1

ed anche:
n
X
v= yi vi . (2.5)
i=1

Sottraendo membro a membro le due ultime relazioni si ottiene:


n
X
0= (xi − yi )vi , (2.6)
i=1

ed essendo i vettori v1 , v2 , ..., vn indipendenti, dalla (2.6) si trae:

(xi − yi ) = 0 i = 1, 2, ..., n, (2.7)

da cui segue che:


xi = yi i = 1, 2, ..., n. (2.8)
Si è così provata la prima parte dell’asserto.
Supponiamo ora che ogni vettore di V si scriva esattamente in un modo come combinazione lineare di
vettori di B. Allora ogni vettore di V appartiene allo spazio hv1 , v2 , ..., vn i, onde B è un insieme di generatori
per V.
Proviamo ora che B è indipendente; supponiamo quindi che risulti:
n
X
xi vi = 0. (2.9)
i=1

Risulta sicuramente anche:


n
X
yi vi = 0, ove yi = 0 i = 1, 2, ..., n; (2.10)
i=1

Dalle (2.9) ed (2.10), e poichè il vettore 0 ∈ V si può scrivere in esattamente un modo come combinazione
lineare di v1 , v2 , ..., vn , subito segue:
xi = 0 i = 1, 2, ..., n. (2.11)

Sia ora B = {v1 , v2 , ..., vn } un insieme di generatori dello spazio vettoriale V. Diremo che B è un insieme
minimale di generatori per V se ogni sottoinsieme proprio di B non genera tutto V. In sostanza B è un
insieme minimale di generatori per V se sopprimendo un qualunque vettore di B si ottiene un sottoinsieme di
B che genera un sottospazio di V che non coincide con V.
Se B = {v1 , v2 , ..., vn } è un insieme di vettori indipendenti dello spazio vettoriale V, diremo che B è
un sottoinsieme massimale di vettori indipendenti di V, se B non risulta propriamente contenuto in alcun
sottoinsieme indipendente di V. In sostanza B è un insieme massimale di vettori di V, se comunque preso
v ∈ V, l’insieme {v1 , v2 , ..., vn , v} risulta dipendente.
Proviamo ora che:
2.1. DEFINIZIONE E PRIME PROPRIETÀ. 13

Proposizione 19 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è un insieme
di vettori di V, allora le tre seguenti proposizioni sono equivalenti:

B è una base di V, (2.12)


B è un insieme minimale di generatori di V, (2.13)
B è un insieme massimale di vettori indipendenti di V. (2.14)

Dimostrazione Proveremo l’asserto mostrando che:

(2.12) ⇒ (2.13) ⇒ (2.14) ⇒ (2.12). (2.15)

Cominceremo col provare che (2.12) ⇒ (2.13). Poichè B è una base, esso è un insieme di generatori per V
e basterà quindi provare la sua minimalità. Procediamo per assurdo e supponiamo che l’insieme di generatori
di B non sia minimale; allora è possibile sopprimere uno dei vettori di B, ottenendo da B ancora un insieme
di generatori per V; senza perdere di generalità, possiamo supporre che il vettore che possiamo sopprimere
sia v1 , onde hv2 , v3 , ..., vn i = V. Poichè v1 ∈ V, il vettore v1 è allora combinazione lineare di v2 , ..., vn ad
opportuni coefficienti x2 , ..., xn , cioè:
Xn
v1 = xi vi , (2.16)
i=2

da cui segue:
n
X
v1 − xi vi = 0, (2.17)
i=2

cioè che esiste una combinazione lineare di v1 , v2 , ..., vn a coefficienti non tutti nulli (il coefficiente di v1 è
lo scalare “1”) che è uguale al vettore nullo, onde v1 , v2 , ..., vn sono dipendenti. Si è così pervenuti ad un
assurdo (poichè B è una base e dunque indipendente) nato dall’aver supposto che B non sia minimale rispetto
alla proprietà di generare V. Si è così vista la prima implicazione.
Proviamo ora che (2.13) ⇒ (2.14). Cominciamo con il provare che v1 , v2 , ..., vn sono indipendenti.
Procediamo per assurdo e supponiamo che esista una loro combinazione lineare:
n
X
xi vi = 0, (2.18)
i=1

con uno almeno tra i coefficienti diverso da zero. Senza perdere di generalità possiamo supporre che sia x1 6= 0;
dividiamo allora ambo i membri della (2.18) per x1 e con ovvi passaggi otteniamo la:
n
X
v1 = − {x1 }−1 xi vi , (2.19)
i=2

dalla quale si deduce che v1 ∈ hv2 , v3 , ..., vn i. Il sottospazio hv2 , v3 , ..., vn i di V contiene allora i vettori
v2 , v3 , ..., vn (come è ovvio) ed il vettore v1 (come si è appena visto); pertanto v1 , v2 , ..., vn ∈ hv2 , v3 , ..., vn i
e dunque ogni combinazione lineare di v1 , v2 , ..., vn appartiene al sottospazio hv2 , v3 , ..., vn i di V. Quindi
hv1 , v2 , ..., vn i è contenuto in hv2 , v3 , ..., vn i; poichè hv1 , v2 , ..., vn i = V, risulta V ⊆ hv2 , v3 , ..., vn i; ne segue
che {v2 , v3 , ..., vn } è un insieme di generatori di V, onde B non è un insieme minimale di generatori di V.
Si è così pervenuti ad una contraddizione nata dall’aver supposto che B non sia indipendente. Ne segue
l’indipendenza lineare di B.
Proviamo ora che B è massimale rispetto alla proprietà di essere indipendente. Sia v ∈ V. Poichè B è
un insieme di generatori di V, il vettore v è combinazione lineare di v1 , v2 , ..., vn ad opportuni coefficienti
x1 , x2 , ..., xn , cioè:
X n
v = xi vi , (2.20)
i=1

da cui segue:
n
X
v− xi vi = 0, (2.21)
i=1

cioè che i vettori v1 , v2 , ..., vn e v sono dipendenti (il coefficiente di v è lo scalare 00 100 ). Pertanto aggregando
a B un qualsiasi vettore di V si ottiene un insieme dipendente e B risulta quindi un insieme massimale di
vettori indipendenti. Si è così vista la seconda implicazione.
14 CAPITOLO 2. BASI E DIMENSIONE

Proviamo infine che (2.14) ⇒ (2.12). Poichè B è indipendente per ipotesi è sufficiente mostrare che
hv1 , v2 , ..., vn i = V. Sia v ∈ V; L’insieme {v1 , v2 , ..., vn , v} è dipendente, per ipotesi, onde esiste una
combinazione lineare: n
X
xv + xi vi = 0, (2.22)
i=1
con uno tra i coefficienti x, x1 , ..., xn diverso da zero. Non può accadere che risulti x = 0, altrimenti uno tra
x1 , x2 , ..., xn sarebbe diverso da zero e dalla (2.22) seguirebbe la dipendenza di B. Allora x 6= 0; con ovvi
passaggi dalla (2.22) segue allora che:
Xn
−1
v = − {x} xi vi , (2.23)
i=1

onde v è combinazione lineare di B. Da quanto detto segue che ogni vettore di V appartiene a hv1 , v2 , ..., vn i
e quindi che B genera V.
Le proposizioni 18 e 19 sono due caratterizzazioni delle basi di uno spazio vettoriale. Al fine di pervenire
al concetto di dimensione di uno spazio vettoriale proviamo che:
Proposizione 20 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base
di V, allora comunque presi n + 1 vettori w1 , ..., wn , wn+1 di V essi risultano dipendenti.
Dimostrazione Se w1 , w2 , ..., wn sono dipendenti, l’asserto è conseguenza della prop. 9 .
Pertanto proveremo l’asserto nel caso che i vettori
w1 , w2 , ..., wn sono indipendenti. (2.24)
Poichè B è una base di V, ciascuno dei vettori w1 , ..., wn , wn+1 si può scrivere in esattamente un modo come
combinazione lineare dei vettori v1 , v2 , ..., vn (cfr. prop. 18), cioè:
w1 = x1,1 v1 + ... + x1,n vn , (2.25)
w2 = x2,1 v1 + ... + x2,n vn ,
..
.
wn = xn,1 v1 + ... + xn,n vn ,
wn+1 = xn+1,1 v1 + ... + xn+1,n vn ,
oppure in notazione compatta:
n
X
wi = xi,j vj i = 1, 2, ..., n + 1. (2.26)
j=1

Osserviamo che uno almeno tra i coefficienti che compaiono al secondo membro della prima delle (2.25) è
diverso da zero; altrimenti sarebbe w1 = 0, onde (cfr. prop. 12) w1 , w2 , ..., wn sarebbero dipendenti, contro
la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori di B) che sia x1,1 6= 0; con ovvi
passaggi, dalla prima delle (2.25) segue allora che:
⎡ ⎤
n
X
v1 = {x1,1 }−1 ⎣w1 − x1,j vj ⎦ . (2.27)
j=2

Sostituendo nella seconda, terza, ... (n + 1)-ma delle (2.25) il valore di v1 fornito dalla (2.27) si riescono ad
esprimere i vettori w2 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , v2 , ..., vn ; cioè nella forma (ove
i coefficienti yi,j , con i = 2, ..., n + 1 e j = 1, ..., n, sono convenientemente scelti):
n
X
wi = yi,1 w1 + yi,j vj i = 2, ..., n + 1. (2.28)
j=2

Osserviamo ora che uno almeno tra i coefficienti y2,2 , ..., y2,n è diverso da zero; altrimenti sarebbe w2 = y2,1 w1 ,
onde w2 − y2,1 w1 = 0 ed i vettori w1 e w2 sarebbero dipendenti; ne seguirebbe (cfr. prop. 11) la dipendenza
di {w1 , w2 , ..., wn } contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori v2 , ..., vn )
che sia y2,2 6= 0; con ovvi passaggi dalla (2.28) per i = 2 segue che:
⎡ ⎤
X2 n
X
−1 ⎣
v2 = − {y2,2 } y2,j wj + y2,j vj ⎦ . (2.29)
j=1 j=3
2.1. DEFINIZIONE E PRIME PROPRIETÀ. 15

Sostituendo nella seconda terza, ..., n-ma delle (2.28) il valore di v2 fornito dalla (2.29) si riescono ad esprimere
i vettori w3 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , w2 , v3 , ..., vn ; cioè nella forma (ove i
coefficienti zi,j , con i = 3, ..., n + 1 e j = 1, ..., n, sono convenientemente scelti):
2
X n
X
wi = zi,j wj + zi,j vj i = 3, ..., n + 1. (2.30)
j=1 j=3

Osserviamo ora che uno almeno tra i coefficienti z3,3 , ..., z3,n è diverso da zero; altrimenti sarebbe:
2
X
w3 = z3,j wj , (2.31)
j=1

onde è:
2
X
w3 − z3,j wj = 0, (2.32)
j=1

ed i vettori w1 , w2 e w3 sarebbero dipendenti; ne seguirebbe (cfr. prop. 11) la dipendenza di {w1 , w2 , ..., wn }
contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori v3 , v4 , ..., vn ) che sia z3,3 6= 0;
con ovvi passaggi dalla (2.30) per i = 3 segue che:
2
X n
X
v3 = − {z3,3 }−1 z3,j wj + {z3,3 }−1 w3 − {z3,3 }−1 z3,j vj . (2.33)
j=1 j=4

Sostituendo nella seconda, terza,..., n-ma delle (2.30) il valore di v3 fornito dalla (2.33) si riescono ad esprimere
i vettori w4 , ..., wn , wn+1 quali combinazioni lineari dei vettori

w1 , w2 , w3 , v4 , ..., vn ; (2.34)

con considerazioni analoghe a quelle ora descritte, dopo un totale di n iterazioni, si riesce ad esprimere il vettore
wn+1 quale combinazione lineare dei vettori w1 , w2 , ..., wn (ove i coefficienti k1 , ..., kn sono convenientemente
scelti):
X n
wn+1 = ki wi . (2.35)
i=1

Dalla (2.35) subito segue la:


n
X
wn+1 − ki wi = 0, (2.36)
i=1

che prova la dipendenza lineare di w1 , w2 , ..., wn+1 .


Dalla proposizione precedente e dalla prop. 11 segue subito che:

Proposizione 21 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base
di V, allora comunque preso un insieme J contenente più di n vettori di V esso risulta necessariamente
dipendente.

Proviamo ora che:

Proposizione 22 Sia VIK uno spazio vettoriale costruito sul campo IK. Se
0
B = {v1 , v2 , ..., vn } , B = {w1 , w2 , ..., wm } ,

sono due basi di V, allora necessariamente risulta n = m.


0
Dimostrazione Se fosse m > n, poichè B è una base di V, i vettori di B sarebbero dipendenti (cfr. prop.
21) ed è escluso che ciò accada (B0 è una base e quindi i suoi vettori sono indipendenti).
Se fosse m < n, poichè B0 è una base di V, i vettori di B sarebbero dipendenti (cfr. prop. 21) ed è escluso
che ciò accada (B è una base e quindi i suoi vettori sono indipendenti).
Avendo escluso che sia m > n oppure n > m, ne segue n = m.
Dalle proposizioni precedenti segue che:
16 CAPITOLO 2. BASI E DIMENSIONE

Proposizione 23 Se uno spazio vettoriale ammette una base finita costituita da n oggetti allora ogni altra
sua base risulta costituita da n oggetti.

Se VIK è uno spazio vettoriale costruito sul campo IK e B = {v1 , v2 , ..., vn } è una sua base diremo che V è
di dimensione finita n; la dimensione di uno spazio vettoriale V uguaglia cioè la cardinalità di una (e quindi
di ogni) base di V.
Osserviamo esplicitamente che (cfr. prop. 20):

Proposizione 24 La dimensione di uno spazio vettoriale V è uguale al numero massimo di vettori indipen-
denti di V.

Se VIK è uno spazio vettoriale di dimensione finita n costruito sul campo IK talora lo denoteremo con il
simbolo VnIK . Proviamo ora che:

Proposizione 25 Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Allora co-
munque preso un insieme J costituito da m vettori indipendenti di V, esso risulta contenuto in (almeno) una
base di V.

Dimostrazione In forza della prop. 21 risulta necessariamente m ≤ n.


Se è m = n, allora J è, in forza della prop. 21, un insieme massimale di vettori indipendenti, e quindi (cfr.
prop. 19) una base di V.
Se invece è m < n, allora J non è un insieme massimale di vettori indipendenti (altrimenti esso sarebbe una
base di V, costituita da m < n vettori, e la prop. 23 esclude che ciò accada). Pertanto è possibile aggiungere
a J un vettore in modo da ottenere un insieme J 0 costituito da m + 1 vettori indipendenti. Se m + 1 = n,
allora J 0 costituisce una base di V contenente J.
Se invece è m + 1 < n, possiamo ripetere per J 0 le considerazioni già svolte per J ed aggregare a J 0 un
vettore in modo da ottenere un insieme J 00 costituito da m + 2 vettori indipendenti. Se m + 2 = n, allora
J 00 è una base di V contenente J. Altrimenti, dopo un totale di n − m passi si riesce ad ottenere un insieme
I = J (n−m) costituito da n vettori indipendenti e contenente J. L’insieme I è la base cercata.

Proposizione 26 Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Se J è
un insieme costituito da m generatori di V, allora necessariamente risulta n ≤ m; inoltre J contiene
necessariamente (almeno) una base di V.

Dimostrazione Sia I un insieme minimale di generatori contenuto in J. Allora, in forza della prop. 19, I
è una base per V contenuta in J. Pertanto I è costituito da n vettori ed è n ≤ m (poichè I è un sottoinsieme
di J).

2.2 Somme, somme dirette e relazione di Grassmann.


Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di V, allora la loro
intersezione insiemistica W1 ∩ W2 è (cfr. prop. 8) un sottospazio di V, che chiameremo intersezione di W1
e W2 . L’unione insiemistica di W1 e W2 non è, invece, in generale un sottospazio di V; diremo sottospazio
congiungente W1 e W2 o somma di W1 e W2 il sottospazio generato da W1 ∪ W2 . Tale sottospazio somma
nel seguito verrà denotato con W1 + W2 . Proviamo al riguardo che:

Proposizione 27 Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di
V, allora il sottospazio somma W1 + W2 di W1 e W2 risulta così definito:

W1 + W2 = {w1 + w2 : ∀ w1 ∈ W1 , ∀ w2 ∈ W2 } . (2.37)

Dimostrazione Per definizione W1 + W2 = hW1 ∪ W2 i; dalla prop. 10 segue allora che la somma di W1
e W2 è la totalità delle combinazioni lineari di un numero finito di vettori appartenenti a W1 ∪ W2 . Pertanto:

w ∈ W1 + W2 ⇔ (2.38)
(∃ u1 , ...uh ∈ W1 , ∃ v1 , ...vk ∈ W2 , ∃ x1 , ..., xh , y1 , ..., yk ∈ IK
h
X k
X
tali che risulti: w = xi ui + yj vj ).
i=1 j=1
2.2. SOMME, SOMME DIRETTE E RELAZIONE DI GRASSMANN. 17

Ph Pk
Poiché i=1 xi ui ∈ W1 e j=1 yj vj ∈ W2 , posto:
h
X k
X
w1 = xi ui ; w2 = yj vj , (2.39)
i=1 j=1

dalla (2.38) si trae la (2.37).


L’ultima proposizione giustifica il nome di somma per W1 + W2 .
Proviamo ora che:

Proposizione 28 Sia VIK uno spazio vettoriale costruito sul campo IK e siano W1 ,W2 due suoi sottospazi
finito dimensionali. Allora sono individuati il sottospazio somma W1 + W2 ed il sottospazio intersezione
W1 ∩ W2 i quali risultano entrambi di dimensione finita. Posto

dim W1 = h, dim W2 = k,
dim (W1 + W2 ) = c, dim (W1 ∩ W2 ) = i,

tra queste sussiste la seguente relazione notevole:

Relazione di Grassmann: h + k = c + i. (2.40)

Dimostrazione Il sottospazio W1 ∩ W2 è di dimensione finita come conseguenza del fatto che W1 e W2


sono di dimensione finita.
Proviamo ora la relazione di Grassmann. Poichè W1 ∩ W2 è di dimensione finita i, ogni base di tale
sottospazio è costituita da i vettori; fissiamo allora una base Bi = {v1 , v2 , ..., vi } per W1 ∩ W2 . I vettori
indipendenti v1 , v2 , ..., vi di W1 ∩ W2 appartengono anche a W1 ; in forza della prop. 25 esistono allora h − i
vettori vi+1 , ..., vh tali che l’insieme Bh = {v1 , v2 , ..., vh } risulti una base per il sottospazio W1 . Con analoghe
considerazioni è possibile provare che esistono k − i vettori w1 , w2 , ..., wk−i tali che l’insieme

Bk = {v1 , v2 , ..., vi , w1 , w2 , ..., wk−i } ,

risulti una base per W2 .


Proviamo ora che l’insieme Bh+k−i = {v1 , v2 , ..., vh , w1 , w2 , ..., wk−i } è un insieme di generatori per
W1 + W2 . Sia, all’uopo, w ∈ W1 + W2 . In forza della prop. precedente allora esistono w1 ∈ W1 , w2 ∈ W2
tali che risulti:
w = w1 + w2 . (2.41)
Poichè w1 ∈ W1 , allora esistono scalari x1 , ..., xh tali che:
h
X
w1 = xj vj . (2.42)
j=1

Poichè w2 ∈ W2 , allora esistono scalari y1 , ..., yi , z1 , ..., zk−i tali che:


i
X k−i
X
w2 = yj vj + zp wp . (2.43)
j=1 p=1

Dalle (2.41), (2.42) ed (2.43) si trae:


h
X i
X k−i
X
w= xj vj + yp vp + zq wq , (2.44)
j=1 p=1 q=1

la quale implica:
i
X h
X k−i
X
w= (xj + yj )vj + xp vp + zq wq , (2.45)
j=1 p=i+1 q=1

dalla quale si deduce che w è combinazione lineare dei vettori v1 , v2 , ..., vh , w1 , w2 , ..., wk−i , onde Bh+k−i è
un insieme di generatori per W1 + W2 .
Proviamo ora che Bh+k−i è indipendente. Sia, all’uopo:
h
X k−i
X
xj vj + zq wq = 0. (2.46)
j=1 q=1
18 CAPITOLO 2. BASI E DIMENSIONE

Dalla quale segue subito che:


h
X k−i
X
xj vj = − zq wq . (2.47)
j=1 q=1

Poniamo allora:
k−i
X
u = − zq wq . (2.48)
q=1

Dalla (2.47) segue che u ∈W1 ∩ W2 , onde u è della forma:


i
X
u= yp vp . (2.49)
p=1

Dalle (2.48) e (2.49) subito segue:


i
X k−i
X
yp vp = − zq wq , (2.50)
p=1 q=1

dalla quale si trae:


i
X k−i
X
yp vp + zq wq = 0. (2.51)
p=1 q=1

Dalla (2.51), essendo Bk = {v1 , v2 , ..., vi , w1 , w2 , ..., wk−i } una base per W2 , e quindi costituita da vettori
indipendenti, segue che:

yj = 0 j = 1, 2, ..., i, (2.52)
zj = 0 j = 1, 2, ..., (k − i) .

Sostituendo nella (2.46) i valori di zj forniti dalla seconda delle (2.52), si ottiene che:
h
X
xj vj = 0. (2.53)
j=1

dalla quale, essendo Bh = {v1 , v2 , ..., vh } una base per W1 , e quindi costituita da vettori indipendenti, segue
che:
xj = 0 j = 1, 2, ..., h. (2.54)
Dalle (2.52) ed (2.54) segue che Bh+k−i è indipendente. Poichè avevamo già visto che Bh+k−i genera W1 +W2 ,
abbiamo provato che Bh+k−i è una base per W1 + W2 , onde la dimensione c di W1 + W2 risulta uguale ad
h + k − i, cioè c = k + k − i.
Se W1 e W2 sono due sottospazi dello spazio vettoriale VIK costruito sul campo IK, diremo che la somma
di W1 e W2 è diretta se ogni elemento di W1 + W2 si scrive in esattamente un modo come somma di un
vettore di W1 e di un vettore di W2 ; in tal caso la somma di W1 e W2 sarà denotata con il simbolo W1 ⊕ W2 .
Al riguardo proveremo ora che:

Proposizione 29 Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di
V, allora la loro somma è diretta se, e solo se, risulta:

W1 ∩ W2 = {0} . (2.55)

Dimostrazione Poniamo dapprima che sia verificata la (2.55).


In tal caso, se w ∈ W1 + W2 e se

w = w1 + w2 con w1 ∈ W1 e w2 ∈ W2 , (2.56)

supponiamo che sia:


w = w01 + w20 con w10 ∈ W1 e w20 ∈ W2 . (2.57)
Sottraendo membro a membro la (2.56) dalla (2.57) otteniamo:

0 = w1 − w10 + w2 − w20 , (2.58)


2.2. SOMME, SOMME DIRETTE E RELAZIONE DI GRASSMANN. 19

dalla quale subito segue:


w1 − w10 = w20 − w2 . (2.59)
Poichè il vettore a primo membro della (2.59) appartiene a W1 , ed il vettore a secondo membro di tale
uguaglianza appartiene a W2 , segue che:

w1 − w10 = w20 − w2 ∈ W1 ∩ W2 = {0} . (2.60)

Pertanto è w1 − w10 = w20 − w2 = 0, onde w1 = w10 e w20 = w2 . Pertanto il vettore w si scrive in


esattamente un modo come somma di un vettore di W1 e di un vettore di W2 , onde la somma W1 + W2 è
diretta.
Supponiamo ora che sia:
W1 + W2 = W1 ⊕ W2 . (2.61)
Proviamo che allora sussiste la (2.55). A tal fine, procediamo per assurdo e supponiamo che:

∃ w ∈ W1 ∩ W2 con w 6= 0. (2.62)

Allora ovviamente è w ∈ W1 + W2 ed inoltre è:

w = 0 + w con 0 ∈ W1 e w ∈ W2 , (2.63)

ed è anche:
w = w + 0 con w ∈ W1 e 0 ∈ W2 . (2.64)
Pertanto, il vettore w ∈ W1 + W2 si scrive in due distinti modi come somma di un vettore di W1 e di
un vettore di W2 . La somma non è allora diretta, contro l’assunto (2.61). Siamo così pervenuti ad una
contraddizione, nata dall’aver supposto la (2.62), la quale non può allora verificarsi.

Diamo ora alcuni esempi di somme e somme dirette di sottospazi di uno spazio vettoriale.
Sia VIK = IR3 , e siano A, B e C tre sottospazi di IR3 generati rispettivamente dalle seguenti basi:

BA = {(0, 1, 0), (0, 0, 1)} ,


BB = {(0, 0, 1), (1, −1, 0)} , (2.65)
BC = {(1, 0, 0)} ,

pertanto la dimensione di A come quella di B è uguale a due, mentre al dimensione di C è uguale a uno.
Prendiamo ora in considerazione il sottospazio intersezione A ∩ B. Come è immediato verificare si ha:

A ∩ B = h(0, 0, 1)i 6= {0} . (2.66)

Essendo il sottospazio intersezione diverso dallo spazio nullo, in forza della prop. 29 si deduce che la somma
A + B non è diretta.
Prendiamo ora in considerazione il sottospazio intersezione A ∩ C. Come è immediato verificare si ha:

A ∩ C = {0} . (2.67)

Essendo il sottospazio intersezione uguale allo spazio nullo, in forza della prop. 29 si deduce che la somma
A + C è diretta. Possiamo dunque scrivere A + C = A ⊕ C.
20 CAPITOLO 2. BASI E DIMENSIONE
Capitolo 3

APPLICAZIONI LINEARI

3.1 Definizione e prime proprietà.


Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK. Diremo che l’applicazione

L : VIK −→ WIK , (3.1)

è lineare se risultano verificate le seguenti proprietà:

∀ v, v0 ∈ V, L(v + v0 ) = L(v) + L(v0 ), (3.2)


∀ k ∈ IK, ∀ v ∈ V, L(kv) = kL(v). (3.3)

Proviamo ora che:

Proposizione 30 Se VIK e WIK sono due spazi vettoriali costruiti sul campo IK ed L:VIK −→ WIK è
un’applicazione di V in W, allora L risulta lineare se, e solo se, verifica la:

∀ k, k 0 ∈ IK, ∀ v, v0 ∈ V, L(kv + k0 v0 ) = kL(v) + k0 L(v0 ). (3.4)

Dimostrazione Supponiamo che L sia lineare e proviamo che essa verifica la (3.4). Se ∀ k, k 0 ∈
IK, ∀ v, v0 ∈ V , allora, in forza della (3.2) risulta:

L(kv + k 0 v0 ) = L(kv) + L(k 0 v0 ). (3.5)

Poichè L verifica la (3.3) è anche:

L(kv) + L(k 0 v0 ) = kL(v) + k 0 L(v0 ). (3.6)

Dalle (3.5) e (3.6) segue la (3.4).


Proviamo ora che la (3.4) implica le (3.2) e (3.3). Se nella (3.4) poniamo k = k 0 = 1, otteniamo la (3.2).
Per provare la (3.3) osserviamo che, avendo denotato con 0V il vettore nullo di V, risulta:

L(kv) =L(kv + 0V ) =L(kv+0v), (3.7)

e che, in forza della (3.4), avendo denotato con 0W il vettore nullo di W, risulta:

L(kv+0v) =kL(v) + 0L(v) = kL(v) + 0W = kL(v). (3.8)

Dalle (3.7) e (3.8) segue la (3.3),onde l’asserto.


La prop. precedente fornisce una caratterizzazione delle applicazioni lineari dello spazio vettoriale V nello
spazio vettoriale W. Proviamo che:

Proposizione 31 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK
è un’applicazione lineare di V in W, allora, denotati con 0V e 0W il vettore nullo di V e W (rispettivamente)
necessariamente risulta:
L(0V ) = 0W (3.9)

21
22 CAPITOLO 3. APPLICAZIONI LINEARI

Dimostrazione Dalla prop. 1 e dalla (3.3) segue che, comunque scelto v ∈ V, si ha:

L(0V ) = L(0v) = 0L(v) = 0W . (3.10)

Diamo ora qualche ulteriore definizione. Sia L un’applicazione lineare dello spazio vettoriale W. Se L è
iniettiva, diremo che è un monomorfismo. Se L è suriettiva, diremo che è un epimorfismo. Se, infine,
L risulta biiettiva, diremo che L è un isomorfismo. Quindi un isomorfismo tra due spazi vettoriali è un
monomorfismo che è anche un epimorfismo. Se poi i due spazi vettoriali coincidono, cioè se V = W, diremo
che L è un endomorfismo; se l’endomorfismo L è anche un isomorfismo (cioè se è biiettivo) diremo che L è
un automorfismo.

3.2 Esempi.
Diamo ora alcuni esempi di applicazioni lineari. Siano VIK e WIK due spazi vettoriali costruiti sul medesimo
campo IK. Se 0W è il vettore nullo di W, l’applicazione N :VIK −→ WIK , che associa ad ogni vettore di V il
vettore 0W di W, è un’applicazione lineare costante che diremo applicazione costante nulla. Se VIK è uno
spazio vettoriale costruito sul campo IK, l’applicazione identica idV :VIK −→ VIK , che associa ad ogni vettore
v di V se stesso, cioè tale che idV (v) = v, è un automorfismo di V, come il lettore verificherà facilmente.
Se V = IR3 e W = IR2 , sia L:VIK −→ WIK così definita: L((x, y, z)) = (x + y, z). È immediato verificare
che L è un epimorfismo.
Daremo, nel seguito, altri esempi di applicazioni lineari.

3.3 Nucleo ed immagine.


Sia L:VIK −→ WIK un’applicazione lineare dello spazio vettoriale V nello spazio vettoriale W (costruiti sul
medesimo campo IK). Risulta individuato il sottoinsieme Im L di W (cfr. A.49). Esplicitamente è

Im L = {w ∈ W : ∃ v ∈ V, L(v) = w} . (3.11)

Proviamo ora che:

Proposizione 32 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK
è un’applicazione lineare di V in W, allora il sottoinsieme immagine di L risulta un sottospazio di W, cioè:

Im L ≤ W. (3.12)

Dimostrazione Si tratta di provare che Im L verifica le (1.23) e (1.24). Dalla prop. 31 segue che il vettore
nullo di W appartiene ad Im L, che è quindi non vuoto e verifica la (1.23). Siano ora w1 , w2 ∈ Im L e k1 ,
k2 ∈ IK. Allora esistono v1 , v2 ∈ V tali che L(v1 ) = w1 e L(v2 ) = w2 ; pertanto risulta:

L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ) = k1 w1 + k2 w2 . (3.13)

onde k1 w1 + k2 w2 ∈ Im L, e la (1.24) è dimostrata.


Se L:VIK −→ WIK è un’applicazione lineare dello spazio vettoriale V nello spazio vettoriale W (costruiti
sul medesimo campo IK), denotato con 0W il vettore nullo di W, risulta individuato il seguente sottoinsieme
di V:
ker L = {v ∈ V : L(v) = 0W } . (3.14)
Evidentemente è ker L = L−1 (0W ); diremo nucleo o kernel di L l’insieme ker L. Al riguardo proviamo ora
che:

Proposizione 33 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK
è un’applicazione lineare di V in W, allora, il nucleo di L risulta un sottospazio di V, cioè:

ker L ≤ V. (3.15)

Dimostrazione Si tratta di provare che ker L verifica le (1.23) e (1.24). Dalla prop 31 segue che il vettore
nullo di V appartiene a ker L, che è quindi non vuoto e verifica la (1.23). Siano ora v1 , v2 ∈ ker L e k1 , k2 ∈ IK.
Allora risulta:
L(v1 ) = L(v2 ) = 0W , (3.16)
3.3. NUCLEO ED IMMAGINE. 23

inoltre é:
L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ) = (3.17)
= k1 0W + k2 0W = 0W .
Da quanto visto segue che k1 v1 + k2 v2 ∈ ker L, onde ker L verifica la (1.24).
Denotato ora con 0V il vettore nullo di V, proviamo che:
Proposizione 34 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed
L : VIK −→ WIK , (3.18)
un’applicazione lineare di V in W. Allora L è un epimorfismo se, e solo se, risulta:
Im L = W. (3.19)
Inoltre L è un monomorfismo se, e solo se, risulta:
ker L = {0V } . (3.20)
Dimostrazione L è un epimorfismo se, e solo se, L è suriettiva; La prima parte dell’asserto è allora ovvia.
L è un monomorfismo se, e solo se, L è iniettiva. Se L è iniettiva allora l’unico vettore di V la cui immagine
in L è il vettore nullo di W è necessariamente il vettore nullo di V, onde:
L è un monomorfismo =⇒ ker L = {0V } . (3.21)
Al fine di provare che nella (3.21) vale anche l’implicazione in verso opposto, osserviamo che, se ker L = {0V },
posto L(v) = L(v0 ), risulta necessariamente (per la linerità di L): L(v − v0 ) = 0W ; da cui subito segue che:
v − v0 ∈ ker L, onde v − v0 = 0V ; da cui ovviamente si trae v = v0 , e quindi la iniettività di L. Pertanto,
abbiamo visto che:
ker L = {0V } =⇒ L è un monomorfismo. (3.22)

Dalla proposizione precedente, subito segue che:


Proposizione 35 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed
L : VIK −→ WIK , (3.23)
un’applicazione lineare di V in W. Allora L è un isomorfismo se, e solo se, risulta
Im L = W e ker L = {0V } . (3.24)
Proviamo ora che:
Proposizione 36 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed
L : VIK −→ WIK , (3.25)
un’applicazione lineare di V in W. Allora le immagini in L di vettori dipendenti di V sono vettori dipendenti
di W.
Dimostrazione Siano v1 , v2 , ..., vm m vettori dipendenti di V. Esistono allora m scalari x1 , x2 , ..., xm
tali che risulti: m
X
xi vi = 0V , (3.26)
i=1
ove 0V è il vettore nullo dello spazio V. Dalla (3.26) subito segue che:
Ãm !
X
L xi vi = L (0V ) . (3.27)
i=1

In forza delle prop. 30 e 31, dalla (3.27) segue che:


m
X
xi L(vi ) = 0W , (3.28)
i=1

ove 0W è il vettore nullo dello spazio W. Poichè uno almeno tra gli scalari x1 , x2 , ..., xm è diverso da zero, dalla
(3.28) segue la dipendenza lineare dei vettori L(v1 ), L(v2 ), ..., L(vm ) di W, immagini dei vettori v1 , v2 , ..., vm
(rispettivamente) di V.
24 CAPITOLO 3. APPLICAZIONI LINEARI

Proposizione 37 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed

L : VIK −→ WIK , (3.29)

un isomorfismo di V in W. Se v1 , v2 , ..., vm sono m vettori di V, allora le loro immagini L(v1 ), L(v2 ), ..., L(vm )
sono dipendenti se, e solo se, sono dipendenti v1 , v2 , ..., vm .

Dimostrazione Poichè L è un’applicazione lineare, se v1 , v2 , ..., vn sono dipendenti, dalla prop. 36 segue
che anche L(v1 ), L(v2 ), ..., L(vm ) sono dipendenti.
Supponiamo ora che L(v1 ), L(v2 ), ..., L(vm ) siano dipendenti. Esistono allora m scalari non tutti nulli
x1 , x2 , ..., xm tali che risulti:
Xm
xi L(vi ) = 0W , (3.30)
i=1

ove 0W è il vettore nullo dello spazio W. Dalla (3.30), in forza della prop. 30 segue che:
Ãm !
X
L xi vi = 0W . (3.31)
i=1

Dalla (3.31) si deduce che:


m
X
xi vi ∈ ker L, (3.32)
i=1

ma essendo L un isomorfismo, dalla prop. 35 segue che Ker L si riduce al vettore nullo 0V di V, onde è:
m
X
xi vi = 0V . (3.33)
i=1

Poichè uno almeno tra gli scalari x1 , x2 , ..., xm è diverso da zero, dalla (3.33) segue la dipendenza lineare dei
vettori v1 , v2 , ..., vm di V.
Dalla prop. precedente e dalla 24 segue subito che:

Proposizione 38 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed

L : VIK −→ WIK , (3.34)

un isomorfismo di V in W. Se v1 , v2 , ..., vm sono m vettori di V, essi risultano indipendenti se, e solo se, tali
risultano le loro immagini in L. Ne segue che L, assieme alla sua inversa L−1 , conservano la dipendenza e
la indipendenza lineare e che V risulta di dimensione finita n se, e solo se, W risulta di dimensione finita n.

Per il caso di un’applicazione lineare L di uno spazio vettoriale VnIK di dimensione finita n in uno spazio
WIK , proviamo ora che:

Proposizione 39 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, ed

L : VIK −→ WIK ,

un’applicazione lineare di V in W. Allora, se V è di dimensione finita n, le dimensioni di ker L e di Im L risul-


tano anch’esse finite. Inoltre, dette m e p le dimensioni di tali ultimi spazi (rispettivamente), necessariamente
risulta:
m + p = n. (3.35)

Dimostrazione Poichè V è di dimensione finita n, in forza della prop. 24, segue che il massimo numero
di vettori indipendenti di V è uguale a n. Il sottospazio ker L di V dovrà allora essere di dimensione finita non
superiore ad n (altrimenti sarebbe possibile trovare n+1 vettori indipendenti di ker L; quindi in V esisterebbero
n + 1 vettori indipendenti ed è escluso che ciò accada). Inoltre, dalla prop. 20 segue che comunque presi n + 1
vettori di Im L essi risultano dipendenti, onde anche la dimensione di Im L non può essere superiore ad n ed
è dunque finita.
Sia ora B = {v1 , v2 , ..., vm } una base per ker L. Si è appena visto che m ≤ n; gli m vettori indipendenti di
B, appartenendo a ker L, appartengono a V; allora, in forza della prop. 25 , è possibile trovare n − m vettori
vm+1 , vm+2 , ..., vn tali che l’insieme B0 = {v1 , v2 , ..., vm , vm+1 , ..., vn } sia una base per V. Proveremo ora che
gli n − m vettori L(vm+1 ), L(vm+2 ), ..., L(vn ) di W costituiscono una base per Im L, cioè che:
3.3. NUCLEO ED IMMAGINE. 25

hL(vm+1 ), L(vm+2 ), ..., L(vn )i = Im L, (3.36)


L(vm+1 ), L(vm+2 ), ..., L(vn ) sono indipendenti. (3.37)

Cominciamo con il provare la (3.36) e sia all’uopo w ∈ Im L; dalla (3.11) segue che esiste un vettore v ∈V
tale che L(v) = w; poichè B0 è una base per V, v si scrive in esattamente un modo come combinazione dei
vettori di B0 , onde esistono n scalari x1 , x2 , ..., xn tali che risulti:
n
X
v= xi vi . (3.38)
i=1

Dalla (3.38) si trae, ricordando che L(v) = w , che:


à n ! n
X X
w =L(v) = L xi vi = xi L(vi ). (3.39)
i=1 i=1

Poichè v1 , v2 , ..., vm appartengono a ker L, risulta: L(v1 ) = L(v2 ) = ... = L(vm ) = 0W il vettore nullo dello
spazio W.
Pertanto, dalla (3.39) si trae:
Xn
w= xi L(vi ), (3.40)
i=m+1

cioè che w è combinazione lineare dei vettori L(vm+1 ), L(vm+2 ), ..., L(vn ) i quali allora generano Im L. Si è
così vista la (3.36).
Proviamo ora la (3.37). Supponiamo quindi che sia:
n
X
xi L(vi ) = 0W . (3.41)
i=m+1

Dalla (3.41) subito segue che:


à n
!
X
L xi vi = 0W . (3.42)
i=m+1

Pertanto, risulta:
n
X
xi vi ∈ ker L. (3.43)
i=m+1

Poichè B è una base per ker L, esistono m scalari y1 , y2 , ..., ym tali che sia:
m
X n
X
yi vi = xi vi , (3.44)
i=1 i=m+1

da cui subito segue che:


m
X n
X
− yi vi + xi vi = 0V . (3.45)
i=1 i=m+1

Poichè i vettori di B0 sono indipendenti è allora necessariamente:

−yi = 0 i = 1, 2, ..., m, (3.46)


xi = 0 i = m + 1, m + 2, ..., n.

Dalla (3.41) abbiamo dedotto che:


xm+1 = xm+2 = ... = xn = 0. (3.47)
Allora abbiamo provato la (3.37). Pertanto gli n − m vettori di W costituiscono una base per Im L. e quindi
la dimensione p di Im L risulta uguale ad n − m, cioè p = n − m, onde la (3.35).
26 CAPITOLO 3. APPLICAZIONI LINEARI

3.4 IKn come modello universale di spazio vettoriale n-dimensionale


sul campo IK.
Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base
di V, allora ogni vettore di V si scrive in esattamente un modo come combinazione lineare dei vettori di B.
Se v ∈ V e risulta :
Xn
v= xi vi . (3.48)
i=1

Diremo che la n-pla (x1 , x2 , ..., xn ) è la n-pla delle coordinate di v, valutate rispetto alla base B. Ogni
volta che verranno utilizzate le coordinate di un vettore rispetto ad una base B = {v1 , v2 , ..., vn }, converremo
di fissare un ordinamento dei vettori della stessa, pertanto da ora in avanti scriveremo B = (v1 , v2 , ..., vn ).
Proveremo al riguardo che:

Proposizione 40 Siano VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK e

B = (v1 , v2 , ..., vn ) ,

una base di V. Allora l’applicazione χB : VnIK −→ IKn che associa ad ogni vettore di V la n-pla delle sue
coordinate, valutate rispetto a B, è un isomorfismo tra VnIK e IKn .

Dimostrazione Proviamo intanto che χB è lineare. Siano all’uopo v, w ∈ V; se risulta:

χB (v) = (x1 , x2 , ..., xn ), χB (w) = (y1 , y2 , ..., yn ), (3.49)

allora è: n n
X X
v= xi vi , w= yi vi , (3.50)
i=1 i=1

onde risulta:
n
X
v + w = (xi + yi )vi . (3.51)
i=1

Pertanto è:

χB (v + w) = ((x1 + y1 ), (x2 + y2 ), ..., (xn + yn )) (3.52)


= χB (v) + χB (w).

L’applicazione χB verifica allora la (3.2). Proviamo ora che χB verifica anche la (3.3). Se k ∈ K, allora è
(cfr.(3.50)): Ã n !
X Xn
kv = k xi vi = (kxi )vi , (3.53)
i=1 i=1

onde risulta:
χB (kv) = ((kx1 ), (kx2 ), ..., (kxn )) = kχB (v). (3.54)
Abbiamo così visto che χB è lineare.
Proviamo ora che è suriettiva: se (z1 , z2 , ..., zn ) ∈ IKn , sia:
n
X
u= zi vi , (3.55)
i=1

allora evidentemente risulta χB (u) = (z1 , z2 , ..., zn ), onde (z1 , z2 , ..., zn ) ∈ Im χB ed χB risulta suriettiva.
Proviamo infine che Ker χB si riduce al vettore nullo 0V di V. Sia, a tal fine
n
X
u0 = ki vi con u0 ∈ ker χB , (3.56)
i=1

allora è:
χB (u0 ) = (0, 0, ..., 0), (3.57)
onde risulta:
ki = 0 i = 1, 2, ..., n, (3.58)
3.5. ULTERIORI PROPRIETÀ DELLE APPLICAZIONI LINEARI. 27

e quindi:
u0 = 0V . (3.59)
n
Dalla prop. 35 segue allora che l’applicazione lineare χB è un isomorfismo di in IK . VnIK
Dalla proposizione precedente segue che ogni spazio vettoriale n-dimensionale, costruito sul campo IK,
risulta isomorfo allo spazio IKn . Tale spazio è allora, come si dice, un modello universale per gli spazi
vettoriali n-dimensionali su IK.
Dalla proposizione precedente segue poi in particolare che:
Proposizione 41 Siano VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK e
B = (v1 , v2 , ..., vn ) ,
una base di V. Allora la n-pla delle coordinate della somma di due vettori v e w di V, valutata rispetto a B,
è la somma delle n-ple delle coordinate di v e di w, valutate rispetto alla stessa base B. Inoltre la n-pla delle
coordinate, valutate rispetto a B, del prodotto dello scalare k per un vettore v è data dal prodotto di k per la
n-pla delle coordinate di v, valutate rispetto a B. Inoltre, m vettori di V sono dipendenti se, e solo se, tali
risultano le n-ple delle loro coordinate, valutate rispetto a B.

3.5 Ulteriori proprietà delle applicazioni lineari.


Proposizione 42 Siano VnIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, L, M : V −→ W
due applicazioni lineari di V in W. Sia poi B = (v1 , v2 , ..., vn ) una base di V. Allora le applicazioni L ed M
coincidono se, e solo se, esse agiscono allo stesso modo sui vettori di B, cioè:
L = M ⇐⇒ L(vi ) = M(vi ) i = 1, 2, ..., n. (3.60)
Inoltre, se w1 , w2 , ..., wn sono n vettori di W, esiste ed è unica l’applicazione lineare N : V −→ W, tale che:
N (vi ) = wi i = 1, 2, ..., n. (3.61)
Dimostrazione Se L = M, allora è:
∀ v ∈V, L(v) = M(v). (3.62)
Pertanto, in particolare, risulta:
L(vi ) = M(vi ) ∀i = 1, 2, ..., n. (3.63)
Se invece è verificata la (3.63), sia v ∈V; poichè B è una base per V, il vettore v individua univocamente le
sue coordinate x1 , x2 , ..., xn , valutate rispetto a B, onde è:
n
X
v= xi vi . (3.64)
i=1

Dalla (3.64) segue che: Ã n !


X n
X
L(v) = L xi vi = xi L(vi ). (3.65)
i=1 i=1
In forza della (3.63), tale ultima espressione risulta uguale a:
n
X
xi M(vi ), (3.66)
i=1

la quale è, a sua volta uguale a: Ã n !


X
M xi vi = M(v). (3.67)
i=1
Pertanto, la (3.63) implica L(v) = M(v); si è così completamente provata la prima parte dell’asserto.
Per provare la restante parte, basta osservare l’applicazione N : V −→ W, tale che:
à n ! n
X X
N xi vi = xi wi , (3.68)
i=1 i=1

è lineare (come è facile verificare). Dalla prima parte dell’asserto segue poi che essa è l’unica applicazione
lineare di V in W che verifichi la (3.61).
Proviamo ora che:
28 CAPITOLO 3. APPLICAZIONI LINEARI

Proposizione 43 Siano VnIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, L : V −→ W un’ap-
plicazione lineare da V in W e B = (v1 , v2 , ..., vn ) una base di V. Allora, gli n vettori L(v1 ), L(v2 ), ..., L(vn )
di W generano Im L.
Dimostrazione Sia w ∈ Im L; allora esiste un vettore v ∈ V tale che L(v) = w. Poichè B è una base per
V, il vettore v si scrive in esattamente un modo come combinazione lineare dei vettori di B. Sia
n
X
v= xi vi ; (3.69)
i=1

allora risulta à n !
X n
X
w =L(v) = L xi vi = xi L(vi ). (3.70)
i=1 i=1

Pertanto, il vettore w appartiene al sottospazio hL(v1 ), L(v2 ), ..., L(vn )i, onde Im L = hL(v1 ), L(v2 ), ..., L(vn )i.

Osserviamo esplicitamente che i vettori L(v1 ), L(v2 ), ..., L(vn ), di cui alla proposizione precedente, in
generale, non costituiscano una base per Im L poichè possono risultare dipendenti.
Siano ora VIK , WIK e UIK tre spazi vettoriali costruiti sul medesimo campo IK. Siano poi L : VIK −→ WIK
e M : WIK −→ UIK applicazioni di V in W e di W in U, rispettivamente. È allora individuata l’applicazione
ML : V −→ U dello spazio V nello spazio U, che diremo prodotto di L ed M, definita nel modo seguente:
∀v ∈V ML(v) = M(L(v)). (3.71)
Proveremo, al riguardo, ora che:
Proposizione 44 Siano ora VIK , WIK e UIK tre spazi vettoriali costruiti sul medesimo campo IK. Se
L : VIK −→ WIK , M : WIK −→ UIK ,
sono applicazioni lineari di V in W e di W in U, rispettivamente, allora l’applicazione prodotto ML : V −→ U
dello spazio V nello spazio U risulta necessariamente lineare.
Dimostrazione Siano v, v0 ∈V; allora è
ML(v + v0 ) = M(L(v + v0 )); (3.72)
in forza della linearità di L, risulta:
0
M(L(v + v0 )) = M(L(v) + L(v )); (3.73)
inoltre, essendo lineare anche M, risulta:
M(L(v) + L(v0 )) = M(L(v)) + M(L(v0 )). (3.74)
Infine dalla (3.71) segue:
M(L(v)) + M(L(v0 )) = ML(v) + ML(v0 ). (3.75)
Abbiamo così provato che:
∀ v, v0 ∈V, ML(v + v0 ) = ML(v) + ML(v0 ). (3.76)
Siano ora k∈IK e v ∈V; allora è
ML(kv) =M(L(kv)); (3.77)
in forza della linearità di L, risulta:
M(L(kv)) =M(kL(v)); (3.78)
inoltre, essendo lineare anche M, risulta:
M(kL(v)) =kM(L(v)). (3.79)
Infine dalla (3.71) segue:
kM(L(v)) =kML(v). (3.80)
Abbiamo così provato che:
∀k∈IK, ∀v ∈V, ML(kv) =kML(v). (3.81)
Dalle (3.76) e (3.81) segue l’asserto.
Capitolo 4

APPLICAZIONI LINEARI E
MATRICI

In questo numero tratteremo di applicazioni lineari tra spazi vettoriali di dimensione finita.

4.1 Applicazione lineare associata ad una matrice.


Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite n ed m, rispet-
tivamente.
Pn Siano poi B = (v1 , v2 , ..., vn ) una base di V e B 0 = (w1 , w2 , ..., wm ) una base di W. Se
v = i=1 xi vi ∈ V, con P il simbolo Xv denoteremo la colonna (x1 , x2 , ..., xn )T delle sue coordinate, valu-
m
tate rispetto a B. Se w = i=1 yi wi ∈ W, con il simbolo Yw denoteremo la colonna (y1 , y2 , ..., ym )T delle sue
coordinate, valutate rispetto a B0 . Sia ora A ∈ M(m × n, IK) una matrice di m righe ed n colonne ad elementi
in IK. Possiamo ora definire un’applicazione, che denoteremo con LB A,B0 e diremo associata ad A, dello spazio
V nello spazio W, nel modo che segue:
LB
A,B0 (v) = w ⇐⇒Y w = AXv . (4.1)
Osserviamo esplicitamente che l’applicazione LB A,B0 dipende, in modo essenziale, sia dalla matrice A, che
dalle basi B e B0 . Proveremo, tra poco che l’applicazione testè definita risulta lineare. Prima di procedere alla
dimostrazione di questo risultato converrà fornire qualche esempio. Siano, all’uopo, VnIK = IR3 e Wm 2
IK = IR ;
3 2
siano poi N = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) e N 0 = ((1, 0), (0, 1)) le basi naturali di IR e IR rispettivamente.
Sia infine A la matrice così definita: µ ¶
1 2 1
A= . (4.2)
2 0 3
3 2 3
L’applicazione LNA,N 0 : IR −→ IR associa al vettore v = (x, y, z) di IR il vettore w = (x + 2y + z, 2x + 3z)
2
di IR . Infatti, la colonna delle coordinate di v, valutata rispetto ad N coincide con (x, y, z)T ; il prodotto
AXv è allora: ⎛ ⎞
µ ¶ x µ ¶
1 2 1 ⎝ x + 2y + z
AXv = y ⎠= . (4.3)
2 0 3 2x + 3z
z
Pertanto, il vettore w = LN A,N 0 (v) ha colonna delle coordinate Yw , data da (x + 2y + z, 2x + 3z) , onde
T

w = (x + 2y + z, 2x + 3z).
Siano, ancora VnIK = IR3 e Wm 2 0
IK = IR ; se B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) e B = ((1, 0), (1, 1)) sono le basi
di IR e IR , rispettivamente, sia A la matrice definita in (4.2). Il vettore v = (x, y, z) di IR3 ha colonna delle
3 2

coordinate Xv , valutate rispetto a B, data da (α, β, γ)T , ove


x+y−z x−y+z −x + y + z
α= , β= , γ= . (4.4)
2 2 2
Pertanto, il vettore w = LB 0
A,B0 (v) ha colonna delle coordinate, valutate rispetto a B , data da Yw , ove:
⎛ ⎞
1
⎜ (x + y − z) ⎟ ⎛ ⎞
µ ¶⎜ 2 ⎟ x+z
1 2 1 ⎜ 1 ⎜ ⎟
Yw = AXv = (x − y + z) ⎟ ⎟=
⎝ ⎠. (4.5)
2 0 3 ⎜ ⎜ 2 ⎟
1
(5y − x + z)
⎝ 1 ⎠ 2
(y − x + z)
2

29
30 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Pertanto µ ¶ µ ¶
−x + 5y + z x + 5y + 3z −x + 5y + z
w = (x + z) (1, 0) + (1, 1) = , . (4.6)
2 2 2
Procediamo ora con la dimostrazione della linearità della applicazione definita nella (4.1); proviamo quindi
che:

Proposizione 45 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V e una base B0 = (w1 , w2 , ..., wm )
di W. Se A ∈ M(m × n, IK) è una matrice ad m righe ed n colonne ad elementi in IK, allora l’applicazione

LB n m
A,B0 (v) : VIK −→ WIK , (4.7)

definita in (4.1) è lineare.

Dimostrazione Siano v, v0 ∈ V; denotate con Xv ed Xv0 le colonne delle loro coordinate (rispettiva-
mente), valutate rispetto a B, per la colonna Xv+v0 delle coordinate di v + v0 , valutate sempre rispetto a B,
risulta (in forza della prop. 36):
Xv+v0 = Xv + Xv0 . (4.8)
Analogamente, se k ∈ K e v ∈ V; allora, dette Xv e Xkv le colonne delle coordinate di v e di kv
(rispettivamente), valutate rispetto a B, risulta:

Xkv = kXv . (4.9)

Siano ora w =LB 0 B 0 0


A,B0 (v) e w =LA,B0 (v ). Le colonne Yw e Yw0 delle coordinate di w e w (rispettivamente),
0
valutate rispetto a B , sono allora date, a norma della (4.1) da:

Yw = AXv , Yw0 = AXv0 . (4.10)

Posto w00 =LB 0 00 0


A,B0 (v + v ), la colonna Yw00 delle coordinate di w , valutata rispetto a B , è data da:

Yw00 = AXv+v0 . (4.11)

Sostituendo nella (4.11) il vettore Xv+v0 fornito dalla (4.8) otteniamo:

Yw00 = AXv+v0 = A(Xv + Xv0 ). (4.12)

In forza della (A.78) dalle (4.12) e (4.10) si trae:

Yw00 = AXv + AXv0 = Yw + Yw0 . (4.13)

Pertanto, la colonna delle coordinate di w00 è la somma delle colonne delle coordinate di w e w0 . Dalla
prop. 40 segue allora che w00 = w + w0 . Ricordando ora le posizioni fatte (w00 =LB 0 B
A,B0 (v + v ), w =LA,B0 (v),
w0 =LB 0
A,B0 (v )), da quanto detto segue che:

LB 0 B B 0
A,B0 (v + v ) = LA,B0 (v)+LA,B0 (v ). (4.14)

Se ora u =LB 0
A,B0 (kv), la colonna delle coordinate di u, valutata rispetto a B , è data da:

Yu = AXkv . (4.15)

Dalle (4.15) e (4.9) segue subito che:


Yu = A(kXv ), (4.16)
in forza della (A.84), dalle (4.16) e (4.10) segue:

Yu = k(AXv ) = kYw . (4.17)

Pertanto, la colonna delle coordinate di u è il prodotto dello scalare k per la colonna delle coordinate di w;
ne segue che u = kw. Ricordando le posizioni fatte (u =LB B
A,B0 (kv), w =LA,B0 (v)), da quanto detto segue:

LB B
A,B0 (kv) = kLA,B0 (v). (4.18)

Dalle (4.14) e (4.18) segue l’asserto.


Osserviamo esplicitamente che:
4.2. MATRICE ASSOCIATA AD UN’APPLICAZIONE LINEARE. 31

Proposizione 46 Nelle ipotesi della proposizione precedente, se vj è (j = 1, 2, ..., n) il j-esimo vettore della
base B di V allora la colonna delle coordinate del vettore LB 0
A,B0 (vj ), valutata rispetto alla base B , è data dalla
j
j-esima colonna A della matrice A.
Dimostrazione La colonna delle coordinate di vj , valutata rispetto alla base B, è data da

Xvj = (0, ..., 1, ..., 0)T ,


ove l’unità compare in j-esima posizione.
Se A = (ai,j ) (i = 1, 2, ..., m; j = 1, 2, ..., n), l’elemento LB
A,B0 (vj ) ha, quale colonna delle coordinate,
valutate rispetto a B0 , la colonna AXvj , esplicitamente data da:
⎛ ⎞
0
⎛ ⎞⎜ 0 ⎟ ⎛ ⎞
a1,1 a1,2 · · · a1,j · · · a1,n ⎜ ⎟ a1,j
⎜ a2,1 a2,2 · · · a2,j · · · a2,n ⎟ ⎜ ⎜
.. ⎟ ⎜ a
⎟ ⎟
⎜ ⎟ ⎜ . ⎟ ⎜ 2,j ⎟
⎜ .. .. . . . .. ⎟
. ⎟=⎜ . ⎟. (4.19)
⎝ . . .. .. .. ⎠⎜ ⎜ 1 ⎟ ⎝ .. ⎠
⎜ .. ⎟
am,1 am,2 · · · am,j · · · am,n ⎝ . ⎠ am,j
0
Pertanto, AXvj = Aj .

4.2 Matrice associata ad un’applicazione lineare.


Nel numero precedente abbiamo visto che l’applicazione (associata alla matrice A e definita in (4.1))
LB n m
A,B0 : VIK −→ WIK ,

è lineare. Ora proveremo che ogni applicazione lineare di VnIK in Wm


IK è associata ad una matrice, nel senso
che:
Proposizione 47 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B0 = (w1 , w2 , ..., wm )
di W ed un’applicazione lineare L : V −→ W di V in W. Risulta allora individuata la matrice A ad m righe
ed n colonne ad elementi in IK la cui j-esima colonna Aj (j = 1, 2, ..., n) è data dalla colonna delle coordinate
dell’immagine in L del j-esimo vettore vj di B, valutata rispetto alla base B0 . Ebbene, l’applicazione lineare
LBA,B0 (vj ), definita in (4.1) associata a tale matrice è necessariamente l’applicazione fissata L.

Dimostrazione La colonna delle coordinate di L (vj ), valutata rispetto a B0 , per ogni j = 1, 2, ..., n
coincide con la j-esima colonna Aj della matrice A (per come è costruita A); d’altra parte (in forza della prop.
45), anche la colonna delle coordinate di LB 0
A,B0 (vj ) valutata rispetto a B , per ogni j = 1, 2, ..., n coincide con
j B
la j-esima colonna A di A. Ne segue che L (vj ) ed LA,B0 (vj ) hanno le stesse coordinate, valutate rispetto
a B0 . Pertanto, in forza della prop. 40, risulta:
∀ j = 1, 2, ..., n. L (vj ) = LB
A,B0 (vj ) . (4.20)
Ne segue che l’applicazione fissata L e la LB
A,B0 agiscono allo stesso modo sui vettori della base B di V; dalla
prop. 42 segue allora che L = LB A,B 0 .
La matrice A di cui alla proposizione precedente, la cui j-esima colonna Aj ( j = 1, 2, ..., n) è data dalla
colonna delle coordinate dell’immagine in L del j-esimo vettore vj di B, valutata rispetto alla base B0 , dipende
in modo essenziale dall’applicazione lineare L : V −→ W di V in W e dalla scelta delle basi B di V e B0 di
W. Diremo che tale matrice che denoteremo con il simbolo AB L,B0 , è la matrice associata ad L quando sono
fissate le basi B di V e B0 di W.
Dalle prop. 45 e 47 segue allora che:
Proposizione 48 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B0 = (w1 , w2 , ..., wm )
Pn T
di W. Se v = i=1 xi vi ∈ V, con il simbolo Xv denoteremo la colonna (x1 , x2 , ..., xn ) delle sue coordinate,
Pm
valutate rispetto a B. Se w = i=1 yi wi ∈ W con il simbolo Yw denoteremo la colonna (y1 , y2 , ..., ym )T delle
sue coordinate, valutate rispetto a B0 . Siano allora L : V −→ W un’applicazione lineare di V in W ed AB L,B0
la matrice associata ad L quando sono fissate le basi B di V e B 0 di W. Allora sussiste la seguente relazione:
L (v) = w ⇐⇒ Yw = AB
L,B0 Xv . (4.21)
32 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Illustriamo ora con qualche esempio la nozione di matrice associata ad un’applicazione lineare. Siano,
all’uopo, VnIK = IR3 e Wm 2
IK = IR ; siano poi

N = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) , N 0 = ((1, 0), (0, 1)) , (4.22)

le basi naturali di IR3 e IR2 , rispettivamente. Sia infine L : IR3 −→ IR2 , l’applicazione lineare così definita:

L (x, y, z) = (x + 2y + z, 2x + 3z) . (4.23)

La matrice ALN ,N 0 coincide con la matrice definita in (4.2), come subito si verifica.
Siano, ancora VnIK = IR3 e Wm 2
IK = IR ; se

B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) , B0 = ((1, 0), (1, 1)) , (4.24)

sono le basi di IR3 e IR2 , rispettivamente, alla applicazione lineare L : IR3 −→ IR2 , così definita:

L (x, y, z) = (x + 2y + z, 2x + 3z) , (4.25)

risulta associata la matrice seguente: µ ¶


1 −3 0
AB
L,B0 = . (4.26)
2 5 3
Infatti
L ((1, 1, 0)) = (3, 2) , L ((1, 0, 1)) = (2, 5) , L ((0, 1, 1)) = (3, 3) , (4.27)
e poichè le colonne delle coordinate di
(3, 2) , (2, 5) , (3, 3) , (4.28)
valutate rispetto alla base B0 , sono rispettivamente uguali a
T T T
(1, 2) , (−3, 5) , (0, 3) , (4.29)

la matrice cercata è quella sopra scritta.


Evidentemente risulta che:

Proposizione 49 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B 0 = (w1 , w2 , ..., wm )
di W. Se A ∈ M(m × n, IK) è una fissata matrice ad m righe ed n colonne ad elementi in IK, allora è
individuata l’applicazione lineare L = LB n m B
A,B0 : VIK −→ WIK definita in (4.1). Allora la AL,B0 associata a tale
0
applicazione L, quando sono fissate le basi B di V e B di W coincide necessariamente con la matrice fissata
A.

Relativamente alla matrice associata ad un prodotto di applicazioni lineari, proviamo ora che:
p
Proposizione 50 Siano VnIK , Wm IK e UIK tre spazi vettoriali costruiti sul medesimo campo IK di dimensioni
finite n, m e p (rispettivamente). Siano poi B , B0 e B00 basi per V, W e U (rispettivamente). Se

L : VIK −→ WIK , (4.30)

è un’applicazione lineare di V in W ed
M : WIK −→ UIK , (4.31)
0
è un’applicazione lineare di W in U, sono individuate le matrici AB B
L,B0 e AM,B00 , associate ad L ed M
B
(rispettivamente) ed anche la matrice AML,B00 , associata all’applicazione lineare prodotto (cfr. prop. 44)

ML : VIK −→ UIK . (4.32)

Tra tali matrici sussiste la seguente relazione:


0
AB B B
ML,B00 = AM,B00 AL,B0 , (4.33)

cioè la matrice associata al prodotto ML è il prodotto della matrice associata ad M per la matrice associata
ad L (quando le basi sono fissate come nella (4.33)).
4.3. CAMBIAMENTI DI BASE; MATRICI INVERTIBILI. 33

Dimostrazione Sia v ∈ V; poniamo:

w = L (v) ; u = ML (v) . (4.34)

Denotiamo ora con Xv , Yw e Zu le colonne delle coordinate di v, w ed u, valutate rispetto a B, B0 e B00


(rispettivamente). Dalla (4.21) segue allora che:

Zu = AB
ML,B00 Xv . (4.35)

D’altra parte, in forza della (3.71), risulta:

u = M (L (v)) = M (w) . (4.36)

Pertanto, esiste un’altro modo per calcolare Zu :


0
Zu = AB
M,B00 Yw . (4.37)

Inoltre è:
Yw = AB
L,B0 Xv . (4.38)
Sostituendo nella (4.37) il valore di Yw fornito dalla (4.38) segue:
0
Zu = AB B
M,B00 AL,B0 Xv . (4.39)

Dalle (4.39) e (4.35) si trae:


0
AB B B
ML,B00 Xv = AM,B00 AL,B0 Xv , (4.40)
quale che sia il vettore v ∈ V. Se v = vj , j-esimo (j = 1, 2, ..., n) vettore della base B di V, la colonna è
T
data da (0, ..., 1, ..., 0) , ove l’unità compare in j-esima posizione; in tal caso, il primo membro della (4.40)
è uguale alla j-esima colonna della matrice AB ML,B00 , mentre il secondo membro della (4.40) è uguale alla
B0 B
j-esima colonna della matrice AM,B00 AL,B0 . Pertanto tali due matrici hanno la j-esima colonna uguale; poiché
ciò è stato provato per ogni j = 1, 2, ..., n, si ha la (4.33).

4.3 Cambiamenti di base; matrici invertibili.


Cominciamo con il provare che:

Proposizione 51 Sia VnIK , uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se

B = (v1 , v2 , ..., vn ) , B0 = (w1 , w2 , ..., wn ) ,

sono due basi di V, allora la matrice AB


id,B0 associata all’applicazione lineare identica id : V −→ V di V in sé
è la matrice identica In di M(n × n, IK) se, e solo se, B = B0 . In particolare, dunque:

AB
id,B = In . (4.41)

Dimostrazione L’immagine id(vj ) del j-esimo vettore della base B è (per j = 1, 2, ..., n) uguale a vj ; la
T
n-pla delle coordinate di vj , valutata rispetto alla base B è data da (0, ..., 1, .., 0) , ove l’unità compare in
T
j-esima posizione; pertanto la j-esima colonna della matrice AB id,B è data da (0, ..., 1, .., 0) , onde (cfr. A.69)
ABid,B = In .
T
Se poi AB B
id,B0 = In , allora la j-esima colonna di Aid,B0 è (0, ..., 1, .., 0) , ove l’unità compare in j-esima
posizione (per ogni j = 1, 2, ..., n); pertanto la colonna delle coordinate di id (vj ), immagine del j-esimo
vettore della base B, valutata rispetto alla base B0 , è data da (0, ..., 1, .., 0)T ; poichè id (vj ) = vj , il vettore vj
di B coincide con il vettore wj di B0 (per ogni j = 1, 2, ..., n); onde B = B0 .

Proposizione 52 Sia VnIK , uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se

B = (v1 , v2 , ..., vn ) ,

è una base di V,allora la matrice ABL,B associata all’applicazione lineare L : V −→ V di V in sé è la matrice


identica In di M(n × n, IK) se, e solo se, L è l’applicazione identica di V in sè.
34 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI

Dimostrazione Se L è l’applicazione identica di V in sè, allora, dalla prop. 51 segue che AB id,B = In .
Sia ora AB L,B = In . Allora, per ogni j = 1, 2, ..., n, la colonna delle coordinate valutate rispetto alla
T
base B, di L (vj ) è data da (0, ..., 1, .., 0) , ove l’unità compare in j-esima posizione; pertanto, L (vj ) = vj .
Da ciò segue che L agisce come l’identità sugli elementi della base B di V. In forza della prop. 37, allora
necessariamente L coincide con l’identità di V.
Proviamo ora che:

Proposizione 53 Sia VnIK uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se

B = (v1 , v2 , ..., vn ) , B0 = (w1 , w2 , ..., wn ) ,

sono due basi di V, allora denotate con Xv ed Yv le colonne delle coordinate di un vettore v ∈V, valutate
rispetto a B e B0 , rispettivamente, necessariamente risulta:

Yv = AB
id,B0 Xv . (4.42)

Dimostrazione Dalla (4.21) segue che la colonna AB id,B0 Xv è la colonna delle coordinate di id(v) valutata
rispetto alla base B0 . Poichè id(v) = v, si ha l’asserto.
Osserviamo esplicitamente che, ai sensi della prop. 47, la j-esima colonna (j = 1, 2, ..., n) della matrice
ABid,B0 è la colonna delle coordinate di vj = id (vj ), valutate rispetto alla base B .
0

Per il caso di un’applicazione lineare L di uno spazio vettoriale V in uno spazio Wn equidimensionali,
n

proviamo ora che:

Proposizione 54 Siano VnIK e WnIK due spazi vettoriali costruiti sul medesimo campo IK, aventi uguale dimen-
sione finita n. Siano poi fissate una base B di V e una base B0 di W. Siano ora L : V −→ W un’applicazione
lineare di V in W ed AB 0
L,B0 la matrice associata ad L quando sono fissate le basi B di V e B di W. Ebbene
B
l’applicazione L risulta invertibile se, e solo se, tale risulta la matrice AL,B0 .

Dimostrazione Supponiamo dapprima che L risulti invertibile, onde è individuata l’applicazione lineare
0
L−1 : W −→ V. In forza della prop. 50, per le matrici AB B
L−1 ,B e AL,B0 risulta:

0
AB B B
L−1 ,B AL,B0 = AL−1 L,B , (4.43)
0 0
AB B B
L,B0 AL−1 ,B = ALL−1 ,B0 .

Poichè LL−1 è l’identità di W e poichè L−1 L è l’identità di V, dalla prop. 51 segue che:
0
AB B
L−1 ,B AL,B0 = In , (4.44)
0
AB B
L,B0 AL−1 ,B = In .

Pertanto se L è invertibile allora AB


L,B0 risulta invertibile ed è:

¡ B ¢−1 0
AL,B0 = AB
L−1 ,B . (4.45)

Supponiamo ora che la matrice AB


L,B0 risulti invertibile e che sia:

¡ B ¢−1
AL,B0 = B. (4.46)

È allora individuata l’applicazione lineare

M = LB
B,B0 : W −→ V. (4.47)

La matrice associata a tale applicazione M, quando sono fissate le basi B0 di W e B di V, coincide (cfr. prop.
49) con B; cioè:
0
ABM,B = B. (4.48)
Dalle (4.33), (4.48) e (4.46) segue che per la matrice associata all’applicazione

ML : V −→ V, (4.49)

risulta: 0
AB B B B
ML,B = AM,B AL,B0 = BAL,B0 = In. (4.50)
4.3. CAMBIAMENTI DI BASE; MATRICI INVERTIBILI. 35

Analogamente per la matrice associata all’applicazione

LM : W −→ W, (4.51)

risulta: 0 0
AB B B B
LM,B0 = AL,B0 AM,B = AL,B0 B = In. (4.52)
In forza della prop. 52, le (4.50) e (4.52) implicano che ML è l’applicazione identica di V in sé e che LM è
l’applicazione identica di W in sè. Pertanto, L ed M risultano l’una l’inversa dell’altra.
Sia ora A una matrice quadrata appartenente a M(n × n, IK). Proveremo al riguardo ora che:

Proposizione 55 Sia A una matrice quadrata appartenente a M(n × n, IK). Allora A risulta invertibile se,
e solo se, le sue colonne A1 , A2 , ..., An sono indipendenti.

Dimostrazione Evidentemente, la matrice A individua un’applicazione lineare


n n
L = LN
A,N : IK −→IK , (4.53)

quando in IKn è fissata la base naturale N = (e1 , e2 , ..., en ). In forza della prop. 54 risulta:

A è invertibile ⇐⇒ L è invertibile. (4.54)

L’applicazione L è invertibile se, e solo se, L è un isomorfismo. Ciò accade se, e solo se, (cfr. prop. 35), risulta
Im L = IKn e ker L = {0}. In forza della prop. 39, ciò equivale a dire che Im L = IKn oppure ker L = {0}.
Pertanto:

L è invertibile ⇐⇒ Im L = IKn , (4.55)


L è invertibile ⇐⇒ ker L = {0} .

Dalla prop. 43, segue che l’immagine di L coincide con IKn se, e solo se, i vettori L (e1 ) , L (e2 ) , ..., L (en ) sono
indipendenti. In forza della prop. 40 e 38 tali vettori sono indipendenti se, e solo se, tali risultano le colonne
delle loro coordinate, valutate rispetto ad N . Le colonne delle coordinate dei vettori L (e1 ) , L (e2 ) , ..., L (en )
valutate rispetto ad N coincidono (cfr. prop. 46) con le colonne A1 , A2 , ..., An della matrice A. Pertanto,
risulta:
Im L = IKn ⇐⇒ A1 , A2 , ..., An sono indipendenti. (4.56)
Dalle (4.54), (4.55) e (4.56).

Proposizione 56 Sia A una matrice quadrata appartenente a M(n × n, IK). Allora A risulta invertibile se,
e solo se, le sue righe A1 , A2 , ..., An sono indipendenti.

Dimostrazione A è invertibile, se e solo se, la sua trasposta AT è invertibile; AT è invertibile se, e solo
se (cfr. prop. 55), le sue colonne sono indipendenti. Poichè le colonne di AT sono le righe di A.
36 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI
Capitolo 5

SISTEMI LINEARI

5.1 Premessa.
Sia IKn lo spazio vettoriale n-dimensionale delle n-ple ordinate di elementi di IK. In questo numero denoteremo
T
ogni elemento v = (x1 , x2 , ..., xn ) ∈ IKn sotto forma di colonna, cioè porremo v = (x1 , x2 , ..., xn ) . Proviamo
ora che:

Proposizione 57 Sia IKn lo spazio vettoriale n-dimensionale delle n-ple ordinate di elementi di IK. Se
in IKn è fissata la base naturale N = {e1 , e2 , ..., en }, allora la colonna Xv delle coordinate del vettore
T T
v = (x1 , x2 , ..., xn ) di IKn , valutate rispetto ad N , coincide con v = (x1 , x2 , ..., xn ) cioè:

Xv = v. (5.1)

Dimostrazione Risulta:
n
X
v= xi ei . (5.2)
i=1

n m
Proposizione 58 Siano A una matrice di m righe ed n colonne ad elementi in IK ed L = LN A,N 0 : IK −→ IK
n m
l’applicazione lineare associata ad A quando in IK ed in IK sono fissate le rispettive basi naturali N ed N 0 .
Allora, se v ∈ IKn e w ∈ IKm , necessariamente risulta:

L (v) = w ⇐⇒ w = Av. (5.3)

Dimostrazione Dalla prop. 49 segue che A = AL


N ,N 0 e dalla (4.21) e (5.1) segue l’asserto.

Proposizione 59 Siano A una matrice di m righe ed n colonne ad elementi in IK ed

n m
L = LN
A,N 0 : IK −→ IK , (5.4)

l’applicazione lineare associata ad A quando in IKn ed in IKm sono fissate le rispettive basi naturali N ed N 0 .
Allora dette A1 , A2 , ..., An le colonne della matrice A, necessariamente risulta:
­ ®
Im L = A1 , A2 , ..., An . (5.5)

In altri termini, l’immagine di L è il sottospazio di IKm generato dagli n vettori di IKm ciascuno dei quali è
una colonna di A.

Dimostrazione Dalla prop. 46 segue che le colonne di A sono le colonne delle coordinate, valutate rispetto
ad N 0 , delle immagini in L dei vettori di N . Dalla prop. 57 segue allora che le immagini in L dei vettori di
N sono gli n vettori di IKm ciascuno dei quali è una colonna di A. Dalla prop. 43 segue quindi l’asserto.

37
38 CAPITOLO 5. SISTEMI LINEARI

5.2 Sistemi lineari e teorema di Rouché-Capelli.


Consideriamo ora un sistema lineare (cioè costituito da equazioni di primo grado) di m equazioni nelle n
incognite x1 , x2 , ..., xn , a coefficienti nel campo IK:


⎪ a1,1 x1 + a1,2 x2 + ... + a1,n xn = b1

⎨ a2,1 x1 + a2,2 x2 + ... + a2,n xn = b2
.. . (5.6)

⎪ .


am,1 x1 + am,2 x2 + ... + am,n xn = bm

Sia A = (ai,j ) ∈ M (m × n, IK) la matrice dei coefficienti delle equazioni del sistema lineare (5.6). Se
X = (x1 , x2 , ..., xn )T ∈ IKn è la colonna delle incognite e B = (b1 , b2 , ..., bm )T ∈ IKm è la colonna dei
termini noti del sistema di IK, la (5.6) si può scrivere nella forma più compatta:

AX = B; A ∈ M (m × n, IK) ; B ∈ IKm . (5.7)

Diremo soluzione del sistema ogni elemento (x1 , x2 , ..., xn )T ∈ IKn , che identicamente soddisfi la (5.7).
Se non esiste alcuna soluzione del sistema, diremo che esso è incompatibile. Diremo invece che esso è
compatibile, se esso ammette almeno una soluzione. Al riguardo sussiste il seguente teorema di Rouché-
Capelli:

Proposizione 60 Sia assegnato il sistema di m equazioni ed n incognite (5.7). Se A = (ai,j ) ∈ M (m × n, IK)


è la matrice dei coefficienti del sistema, sia C la matrice completa dei coefficienti e dei termini noti di
(5.7), ottenuta aggregando ad A la colonna B dei termini noti. Allora il sistema risulta compatibile se, e solo
se, il rango di A è uguale al rango di C.
n m
Dimostrazione Sia L = LN A,N 0 : IK −→ IK l’applicazione lineare associata ad A quando in IKn ed in
IKm sono fissate le rispettive basi naturali N ed N 0 . Siano A1 , A2 , ..., An le colonne della matrice A, allora
risulta: ⎛ ⎞ ⎛ ⎞
.. .. .. .. .. .. ..
⎜ .1 .2 . ⎟ ⎜ .1 .2 . . ⎟
A=⎜ ⎝ A A · · · A n ⎟
⎠ ; C = ⎜ A A · · · An B ⎟ .
⎝ ⎠ (5.8)
.. .. .. .. .. .. ..
. . . . . . .
Pertanto, C ∈ M (m × (n + 1), IK). Inoltre il sistema (5.7) si può scrivere nella forma:
n
X
xi Ai = B, (5.9)
i=1

T
Pertanto, il sistema ammette la soluzione (x1 , x2 , ..., xn ) ∈ IKn , se, e solo se, il vettore colonna dei termini
noti B è combinazione lineare delle colonne A1 , A2 , ..., An , a coefficienti x1 , x2 , ..., xn (rispettivamente). Dalla
prop.59 segue allora che il sistema è compatibile se, e solo se, risulta:
­ ®
B ∈ A1 , A2 , ..., An = Im L. (5.10)
­ ®
Se B ∈ A1 , A2 , ..., An , allora la colonna B dipende dalla colonne di A ed il massimo numero di colonne
indipendenti di C coincide con il rango di A. Se invece il rango di A coincide con quello di C, allora
necessariamente la colonna dei termini noti B è dipendente dalle colonne di A (altrimenti il rango di C
sarebbe superiore di una unità a quello di A).

5.3 Sistemi omogenei.


Consideriamo ora un sistema della forma (5.7) con B = 0; la m-pla dei termini noti è cioè tutta nulla. Un
siffatto sistema si dice omogeneo ed esplicitamente ha la forma:

AX = 0; A ∈ M (m × n, IK) . (5.11)

Il sistema (5.11) ammette sempre almeno la soluzione banale tutta nulla e quindi risulta sempre compa-
tibile. Più precisamente:
5.4. INSIEME DELLE SOLUZIONI DI UN SISTEMA. 39

Proposizione 61 Sia assegnato il sistema omogeneo di m equazioni in n incognite (5.11). Se la matrice dei
coefficienti del sistema A = (ai,j ) ∈ M (m × n, IK) ha rango uguale a p, allora l’insieme delle soluzioni del
sistema (5.11) è un sottospazio (n − p)-dimensionale di IKn .
n m
Dimostrazione Sia L = LN A,N 0 : IK −→ IK l’applicazione lineare associata ad A quando in IKn ed in
IK sono fissate le rispettive basi naturali N ed N 0 . La colonna X ∈ IKn è soluzione di (5.11) se, e solo se,
m

risulta L (X) = 0. Pertanto (in forza della (3.14)), la colonna X è soluzione se, e solo se, risulta:
X ∈ ker L. (5.12)
Pertanto, l’insieme delle soluzioni di (5.11) è, in forza della prop. 33, un sottospazio di IKn . Poichè per ipotesi,
risulta R (A) = p, la dimensione di Im L (cfr.59) è uguale a p; dalla prop. 39, segue allora che la dimensione
di Ker L è uguale ad n − p.
Diremo autosoluzione di un sistema omogeneo ogni sua eventuale soluzione non banale, cioè non nulla.
Proviamo ora che:
Proposizione 62 Nelle ipotesi della proposizione precedente, il sistema (5.11) ammette autosoluzioni se, e
solo se, risulta:
p < n. (5.13)
Dimostrazione Dalla prop. 61 segue che l’insieme delle soluzioni di (5.11) è un sottospazio (n − p)-
dimensionale di IKn . Tale sottospazio contiene qualche vettore non nullo se, e solo se, la sua dimensione n − p
risulta maggiore di zero.

5.4 Insieme delle soluzioni di un sistema.


Consideriamo ora nuovamente il sistema (5.7) di m equazioni in n incognite a coefficienti nel campo IK.
Possiamo considerare il sistema omogeneo (5.11) ottenuto da (5.7) sostituendovi la colonna dei termini noti
con la colonna tutta nulla 0 ∈ IKm ; diremo allora che (5.11) è il sistema omogeneo associato a (5.7).
Proviamo al riguardo che:
Proposizione 63 Sia assegnato il sistema di m equazioni in n incognite (5.7). È allora individuato il sistema
omogeneo (5.11) ad esso associato. Tale sistema omogeneo è sempre compatibile (cfr. prop. 61). Sia ora
S0 ≤ IKn il sottospazio delle sue soluzioni; nell’ulteriore ipotesi che (5.7) risulti compatibile, l’insieme S delle
soluzioni di (5.7) risulta non vuoto e sia inoltre Z ∈ S, allora necessariamente risulta:
S = {Z + Y : Y ∈ S0 }. (5.14)
n
Cioè, le soluzioni di (5.7) sono tutte e sole le n-ple di IK ottenute sommando ad una arbitrariamente fissata
soluzione Z di (5.7) una soluzione di (5.11).
Dimostrazione Poichè Z è per ipotesi soluzione di (5.7), risulta:
AZ = B. (5.15)
Sia ora X ∈ S. Allora risulta:
AX = B. (5.16)
Sottraendo membro a membro la (5.15) dalla (5.16), otteniamo:
A(X − Z) = 0 (5.17)
Pertanto, la n-pla Y = X − Z risulta soluzione di (5.11), cioè:
X ∈ S =⇒ Y = (X − Z) ∈ S0 . (5.18)
Sia ora Y ∈ S0 . Allora è:
AY = 0. (5.19)
Posto ora X = Z + Y , dalle (5.15) ed (5.19) segue:
AX = A(Z + Y ) = AZ + AY = B + 0 = B, (5.20)
onde X risulta soluzione di (5.7) ed è X ∈ S. Pertanto, X è soluzione del sistema (5.7) se, e solo se, esiste
una soluzione Y del sistema omogeneo associato (5.11) tale che risulti X = Z + Y .
Possiamo ora provare che:
40 CAPITOLO 5. SISTEMI LINEARI

Proposizione 64 Siano assegnati il sistema compatibile di m equazioni in n incognite¡ (5.7) ed una


¢ sua
soluzione Z. Se la matrice A dei coefficienti del sistema ha rango uguale a p, e Y 1 , Y 2 , ..., Y n−p è una
base per lo spazio S0 delle soluzioni del sistema omogeneo (5.11) associato ad (5.7), allora l’insieme S delle
soluzioni di (5.7) è dato da:
½ ¾
P
n−p
i
S= Z+ xi Y : x1 , x2 , ..., xn−p ∈ IK . (5.21)
i=1

Dimostrazione Dalla prop. precedente


­ segue® che S = {Z + Y : Y ∈ S0 }. D’altra parte, lo spazio
(n − p)-dimensionale S0 coincide con Y 1 , ..., Y n−p , onde risulta:
P
n−p
Y ∈ S0 ⇐⇒ Y = xi Y i x1 , ....., xn−p ∈ IK. (5.22)
i=1

Dalle (5.22) e (5.14) si ha l’asserto.


Osserviamo esplicitamente che l’insieme S0 delle soluzioni del sistema (5.11) è un sottospazio di IKn ;
l’insieme S delle soluzioni di (5.7) non è invece, se B 6= 0, un sottospazio di IKn ; tale insieme S può anche
risultare vuoto (nel caso in cui il sistema risulti incompatibile), Inoltre, se S 6= ∅, la differenza di due elementi
di S non appartiene ad S, bensì ad S0 . Se (5.7) è compatibile, nelle ipotesi della proposizione precedente
segue che le sue soluzioni dipendono dagli n − p parametri indipendenti x1 , ....., xn−p ∈ IK, cioè, come si dice
(con linguaggio classico, ma improprio, tratto dal caso IK = IR), il sistema ammette ∞n−p soluzioni.

5.5 Sistemi di Cramer.


Sia ora assegnato un sistema lineare di n equazioni in n incognite a coefficienti in IK. Diremo quadrato un
tale sistema e se esso è dato da (5.7), allora risulta:
AX = B; A ∈ M(n × n, IK); B ∈ IKn . (5.23)
Relativamente ai sistemi quadrati proviamo ora che:
Proposizione 65 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23) e sia p il rango
per colonne della matrice dei coefficienti A del sistema. Allora il sistema (5.23) ammette esattamente una
soluzione se, e solo se, risulta:
p = n. (5.24)
Dimostrazione Siano A1 , A2 , ..., An le colonne della matrice A, allora, detta C la matrice completa dei
coefficienti e termini noti di (5.23), risulta:
⎛ ⎞ ⎛ ⎞
.. .. .. .. .. .. ..
⎜ .1 .2 . ⎟ ⎜ .1 . . . ⎟
A=⎜ ⎝ A A ··· An ⎟ ⎠; C=⎜
⎝ A A2 · · · An B ⎟ ⎠. (5.25)
.. .. .. .. .. .. ..
. . . . . . .
Se p = n, allora le n colonne A1 , A2 , ..., An sono indipendenti; le n + 1 colonne di C sono n + 1 elementi di IKn
e risultano quindi dipendenti; pertanto il massimo numero di colonne indipendenti di C è uguale a p, onde è:
R(A) = R(C) = p. (5.26)
La (5.26), in forza della prop. 60, implica che il sistema è compatibile e sia Z una sua soluzione; dalla prop.
62 segue poi che il sistema omogeneo (5.11) associato ad (5.23) ammette la sola soluzione nulla; infine dalla
prop. 63 segue che l’insieme delle soluzioni di (5.23) si riduce alla sola soluzione Z. Pertanto:
p = n =⇒ (5.23) ammette esattamente una soluzione. (5.27)
Se p 6= n, sono possibili due eventualità a seconda che risulti R(A) = R(C), oppure che sia R(A) 6= R(C).
Se è R(A) = R(C), il sistema risulta compatibile ed ammette ∞n−p soluzioni; poichè p 6= n, la soluzione
di (5.23) non è in tal caso unica. Se invece si verifica la seconda eventualità (R(A) 6= R(C)), il sistema
risulta incompatibile e non ammette soluzioni. Da quanto detto segue che se (5.23) ammette esattamente una
soluzione, allora necessariamente risulta p = n, cioè:
(5.23) ammette esattamente una soluzione =⇒ p = n. (5.28)
Dalle (5.27) ed (5.28) segue l’asserto.
Proviamo ora il teorema di Cramer:
5.6. LO SPAZIO DELLE SOLUZIONI DI UN SISTEMA OMOGENEO. 41

Proposizione 66 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23). Il sistema ammette
esattamente una soluzione se, e solo se, la matrice A dei coefficienti risulta non singolare. Se ciò accade,
esiste la matrice inversa A−1 (vedi appendice) e la soluzione del sistema è allora data da:

X = A−1 B. (5.29)

Dimostrazione Dalla prop. precedente segue che il sistema (5.23) ammette esattamente una soluzione
se, e solo se, il rango di A risulta uguale ad n; ciò equivale a dire che le n colonne della matrice quadrata A
sono indipendenti; ciò accade se, e solo se, la matrice A risulta non singolare. È così provata la prima parte
dell’asserto.
Se A è invertibile, moltiplicando a sinistra, ambo i membri della relazione AX = B, per la matrice A−1 ,
con ovvi passaggi si ottiene la (5.29), onde l’asserto.
Per il caso particolare di un sistema quadrato omogeneo, dalla prop. precedente segue la:

Proposizione 67 Il sistema quadrato omogeneo AX = 0, a coefficienti nel campo IK, ammette la sola
soluzione banale se, e solo se, la matrice A dei coefficienti risulta non singolare.

Possiamo ora, utilizzare la (A.91) per rienunciare il teorema di Cramer nella seguente formulazione:

Proposizione 68 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23). Il sistema ammette
esattamente una soluzione se, e solo se, risulta det A 6= 0. Se ciò accade, la soluzione del sistema è allora
data da:
X = (x1 , x2 , ..., xn )T ∈ IKn , (5.30)
ove
x1 = (det A)−1 det A(1) , ..., xi = (det A)−1 det A(i) , ..., xn = (det A)−1 det A(n) , (5.31)
avendo denotato con A(i) la matrice ottenuta dalla A, sostituendovi, in luogo della i-ma colonna, la colonna
B dei termini noti.

Dimostrazione Dalla (5.29) segue che:


X = A−1 B. (5.32)
Sostituendo in tale espressione il valore di A−1 fornito dalla (A.91) ed effettuando il prodotto, si ottiene, per
l’i-mo elemento di X:
Xn
xi = (det A)−1 e aj,i bj . (5.33)
j=1

La somma che compare a secondo membro della (5.33) è appunto il valore del determinante della matrice A(i)
ottenuta dalla A, sostituendovi, in luogo della i-ma colonna, la colonna B dei termini noti, onde l’asserto.

5.6 Lo spazio delle soluzioni di un sistema omogeneo.


Cominciamo con l’osservare che:

Proposizione 69 Sia assegnato il sistema quadrato omogeneo di n equazioni in n incognite AX = 0. Il


sistema ammette autosoluzioni se, e solo se, risulta det (A) = 0.

Dimostrazione Dalla prop. precedente.


Consideriamo ora il sistema omogeneo (5.11). Con riferimento alla prop. 61 supponiamo che risulti
R(A) = p. Senza perdere di generalità possiamo supporre che sia diverso da zero il determinante della matrice
B estratta dalle prime p righe e colonne di A.
Le prime p righe di A risultano indipendenti ed inoltre ogni altra riga di A dipende da esse. Pertanto, il
sistema (5.11) risulta equivalente al sistema ridotto ottenuto considerando soltanto le prime p equazioni di
(5.11). Tale sistema è allora il sistema omogeneo di p equazioni in n incognite:

DX = 0, (5.34)

ove D è la matrice formata dalle prime p righe di A.


42 CAPITOLO 5. SISTEMI LINEARI

Esplicitamente il sistema (5.34) si scrive:




⎪ a1,1 x1 + a1,2 x2 + ... + a1,p xp + a1,p+1 xp+1 + ... + a1,n xn = 0

⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp + a2,p+1 xp+1 + ... + a2,n xn = 0
.. . (5.35)

⎪ .


ap,1 x1 + ap,2 x2 + ... + ap,p xp + ap,p+1 xp+1 + ... + ap,n xn = 0

Il sistema (5.35) si può anche scrivere nella forma:




⎪ a1,1 x1 + a1,2 x2 + ... + a1,p xp = −a1,p+1 xp+1 − ... − a1,n xn

⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp = −a2,p+1 xp+1 − ... − a2,n xn
.. . (5.36)

⎪ .


ap,1 x1 + ap,2 x2 + ... + ap,p xp = −ap,p+1 xp+1 − ... − ap,n xn

Osserviamo che la matrice dei coefficienti che compaiono nei primi membri delle equazioni di (5.36) è la
matrice B il cui determinante è diverso da zero. Pertanto, fissando un valore arbitrario per le incognite
xp+1 , xp+2 , ...., xn che compaiono nei secondi membri, il sistema (5.36) ammette esattamente (a norma della
prop. 68.) una soluzione nelle incognite x1 , x2 , ..., xp .
Fissiamo allora: ½
xi = 0 i = p + 2, p + 3, ..., n
. (5.37)
xi = 1 i=p+1
In corrispondenza di tali valori determiniamo la soluzione y1,1 , y1,2 , ..., y1,p del sistema (5.36). Evidentemente,
allora, la n-pla:
(y1,1 , y1,2 , ..., y1,p , 1, 0, ..., 0) , (5.38)
è soluzione di (5.36) e quindi di (5.35) e quindi del sistema (5.11) ad esso equivalente.
Procedendo in modo analogo possiamo fissare, poi:
½
xi = 0 i = p + 1, p + 3, ..., n
. (5.39)
xi = 1 i=p+2

Scegliamo, cioè, il valore nullo per ognuna delle xp+1 , xp+2 , ..., xn , fatta eccezione per xp+2 che poniamo uguale
ad 1. Una tale scelta delle xp+1 , xp+2 , ..., xn , dà luogo alla soluzione

(y2,1 , y2,2 , ..., y2,p , 0, 1, ..., 0) , (5.40)

di (5.36) e quindi di (5.11). Procedendo in modo simile, poichè è possibile scegliere in n − p modi diversi
la variabile a secondo membro di (5.36) cui attribuire il valore uno (attribuendo alle altre il valore zero),
possiamo costruire le n − p soluzioni distinte di (5.11) che seguono:

(y1,1 , y1,2 , ..., y1,p , 1, 0, ..., 0) ,


(y2,1 , y2,2 , ..., y2,p , 0, 1, ..., 0) ,
.. (5.41)
.
(yn,1 , yn,2 , ..., yn,p , 0, 0, ..., 1) .

Le n − p soluzioni (5.41) possono essere pensate come le righe di una matrice S ad n − p righe ed n colonne
il cui rango è uguale a n − p (le ultime n − p colonne di S formano la matrice identica In−p ). Pertanto, le
soluzioni (5.41) sono n − p soluzioni indipendenti di (5.11).
Poichè (cfr. prop. 61) lo spazio S0 delle soluzioni di (5.11) ha dimensione n − p, le soluzioni (5.41)
costituiscono una base per S0 .

5.7 L’insieme delle soluzioni di un sistema compatibile.


Possiamo ora considerare il sistema (5.7). Con riferimento alla prop. 60 tale sistema è compatibile se, e solo
se, il rango della matrice A dei coefficienti coincide con il rango della matrice completa C dei coefficienti e
termini noti. Supponiamo che ciò accade, onde (5.7) è compatibile. Posto poi Rc (A) = p, senza perdere di
generalità possiamo supporre che sia diverso da zero il determinante della matrice B estratta dalle prime p
5.7. L’INSIEME DELLE SOLUZIONI DI UN SISTEMA COMPATIBILE. 43

righe e colonne di A. Con considerazioni analoghe a quelle svolte nei paragrafi precedenti è facile provare che
(5.7) equivale a: ⎧

⎪ a1,1 x1 + a1,2 x2 + ... + a1,p xp = b1 − a1,p+1 xp+1 − ... − a1,n xn

⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp = b2 − a2,p+1 xp+1 − ... − a2,n xn
.. . (5.42)

⎪ .


ap,1 x1 + ap,2 x2 + ... + ap,p xp = bp − ap,p+1 xp+1 − ... − ap,n xn
Se, in (5.42) fissiamo arbitrariamente le incognite xp+1 , xp+2 , ..., xn , che compaiono nei secondi membri
delle equazioni del sistema, il (5.42) diviene un sistema di p equazioni in p incognite con determinante della
matrice B dei coefficienti diverso da zero; in tal caso allora esiste ed è unica la soluzione nelle incognite
x1 , x2 , ..., xp . Per comodità conviene allora porre:

xi = 0 i = p + 1, p + 2, ..., n, (5.43)

cioè porre uguali a zero tutte le suddette incognite. Detta allora z1 , z2 ..., zp la soluzione ottenuta per (5.42) in
conseguenza di tale scelta, allora la n-pla (z1 , z2 ..., zp , 0, 0, ..., 0) risulta soluzione di (5.42) e quindi del sistema
(5.7) ad esso equivalente.
A norma della prop. 63 l’insieme S delle soluzioni di (5.7) è data dall’insieme dei vettori di IKn ciascuno
dei quali è somma di (z1 , z2 ..., zp , 0, 0, ..., 0) con un vettore dello spazio S0 delle soluzioni del sistema omogeneo
associato a (5.7).
44 CAPITOLO 5. SISTEMI LINEARI
Capitolo 6

DIAGONALIZZAZIONE

6.1 Definizioni e prime proprietà.


Sia A = (ai,j ) ∈ M(n × n, IK) una matrice quadrata. Diremo che A è diagonale se, e solo se:

i 6= j =⇒ ai,j = 0. (6.1)

Pertanto, la matrice A risulta diagonale se, e solo se, sono nulli tutti i suoi elementi che non giacciono
sulla diagonale principale. Ad esempio risultano diagonali le matrici nulla ed identica.
Sia ora L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Diremo che L è diagonalizzabile se, e
solo se, esiste una base B di IKn tale che la matrice ABL,B associata ad L, rispetto alla base B, sia una matrice
diagonale.
Diremo che la matrice quadrata A = (ai,j ) ∈ M(n × n, IK) è diagonalizzabile se, e solo se, l’endomorfismo
n n
LNA,N di IK , associato ad A, quando nello spazio IK è fissata la base naturale N , risulta diagonalizzabile.
Al fine di determinare condizioni per stabilire l’eventuale natura diagonalizzabile di una matrice, comin-
ciamo con il dare la seguente definizione. Siano L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn
B0
e B e B0 due basi per IKn . Denotiamo con A = AB 0
L,B e A = AL,B0 le matrici associate ad L quando in IK
n
0 0
sono fissate le basi B e B (rispettivamente). Le matrici A ed A si dicono simili se

∃C ∈ M(n × n, IK) : A = C −1 A0 C. (6.2)

Attraverso la seguente proposizione andiamo ora a caratterizzare la relazione di similitudine.

Proposizione 70 La relazione di similitudine introdotta nella definizione precedente è di equivalenza.


0
B B
Dimostrazione Denotiamo con S la relazione di similarità tra le matrici X = XL,B , Y = YL,B 0 associate
n n 0 n
ad un endomorfismo L : IK −→ IK quando siano state fissate le basi B e B di IK . S è di equivalenza se
risulta riflessiva, simmetrica e transitiva. La proprietà riflessiva risulta verificata assumendo quale matrice C
che compare nella 6.2 la matrice identica In :

XSX : X = In−1 XIn . (6.3)

Allo stesso modo la proprietà simmetrica discende banalmente dalla 6.2; si ha infatti

X = C −1 Y C ⇒ Y = CXC −1 . (6.4)
00
B
Consideriamo ora la matrice Z = ZL,B 00 associata alla applicazione lineare L quando sia stata fissata una base
n
B00 di IK , e supponiamo che Y SZ; esiste quindi D ∈ M(n × n, IK) tale che Y = D−1 ZD. Sostituendo la
precedente nella X = C −1 Y C che esprime la similitudine tra X ed Y si ottiene

X = C −1 (D−1 ZD)C
= (C −1 D−1 )Z(DC)
= (DC)−1 Z(DC), (6.5)

ovvero XSZ. Nella precedente deduzione si è fatto uso della associatività del prodotto righe per colonne e
del fatto che l’inversa del prodotto è uguale al prodotto delle inverse prese in ordine inverso. Dal supporre
XSY e Y SZ discende XSZ (proprietà transitiva).

45
46 CAPITOLO 6. DIAGONALIZZAZIONE

Proposizione 71 Siano L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn e B e B0 due basi per
B0
IKn . Dette A = AB 0 n
L,B e A = AL,B0 le matrici associate ad L quando in IK sono fissate le basi B e B
0
B n
(rispettivamente), se C = Aid,B0 è la matrice associata all’identità di IK quando si passa dalla base B alla
base B0 , necessariamente risulta:
A = C −1 A0 C. (6.6)

Dimostrazione La matrice AB
id,B0 è (cfr. (4.45)) data da C
−1
. Dalla (4.33) segue allora che:
0 0
AB B B B
L,B = Aid,B AL,B0 Aid,B0 . (6.7)

Dalla (6.7) segue l’asserto.


Sia ora L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Diremo autovettore di L ogni
vettore non nullo v ∈ IKn 6= {0} per il quale esiste uno scalare λ ∈ IK tale che risulti

L(v) = λv; (6.8)

in tal caso diremo che lo scalare λ è l’autovalore di L associato all’autovettore v.


Osserviamo esplicitamente che un autovalore può risultare nullo, ma ogni autovettore è necessariamente
non nullo. Proviamo ora che:

Proposizione 72 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta
diagonalizzabile se, e solo se, esiste una base B = (v1 , v2 , ..., vn ) di IKn costituita da autovettori di L.

Dimostrazione Se esiste una base B = (v1 , v2 , ..., vn ) costituita da autovettori di L, siano λ1 , λ2 , ..., λn
gli autovalori ad essi relativi, rispettivamente. Allora, ovviamente, per ogni j = 1, ..., n, risulta:

L(vj ) = λj vj . (6.9)

La j-ma colonna Aj della matrice AB L,B associata ad L, rispetto alla base B è la colonna delle coordinate di
L(vj ) valutate rispetto alla base B; pertanto risulta Aj = (0, ..., 0, λj , 0, ..., 0)T . Ne segue che:
⎛ ⎞
λ1 0 ··· 0
⎜ 0 λ2 ··· 0 ⎟
⎜ ⎟
AB
L,B = ⎜ .. .. .. .. ⎟. (6.10)
⎝ . . . . ⎠
0 0 0 λn

Abbiamo così visto che se esiste una base B = (v1 , v2 , ..., vn ) di IKn costituita da autovettori di L, allora AB
L,B
risulta diagonale, onde L è diagonalizzabile. Supponiamo ora che L sia diagonalizzabile e sia B una base di
IKn tale che AB L,B risulti diagonale e quindi della forma (6.10). In tal caso, ciascuno dei vettori di B verifica
la (6.9) e risulta quindi un autovettore di autovalore relativo λj . Abbiamo così provato l’asserto.
Dalla prop. precedente subito segue che:

Proposizione 73 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta
diagonalizzabile se, e solo se, esistono n autovettori indipendenti di L.

Dimostrazione Esistono n autovettori indipendenti se, e solo se, esiste una base di IKn costituita da
autovettori di L.

6.2 Autospazi.
Proviamo ora che:

Proposizione 74 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Comunque preso lo
scalare λ ∈ IK, risulta individuato il sottoinsieme E(λ) di IKn così definito:

v ∈E(λ) ⇐⇒ v ∈IKn , L(v) = λv. (6.11)

Tale sottoinsieme E(λ) è sempre un sottospazio di IKn . Inoltre, E(λ) risulta non nullo se, e solo se λ è
un autovalore di L.
6.3. RICERCA DEGLI AUTOVALORI. 47

Dimostrazione Dalla (3.9) segue che L(0) = 0; inoltre è (per ogni λ ∈ IK) λ0 = 0. Pertanto, 0 ∈ E(λ)
ed E(λ) risulta non vuoto.
Siano ora v, v0 ∈ E(λ); allora è L(v) = λv, L(v0 ) = λv0 . Se k, k0 ∈ IK, risulta:

L(kv + k0 v0 ) = kL(v) + k0 L(v0 ) = kλv + k 0 λv0 = λ(kv + k 0 v0 ). (6.12)

Dalla (6.12) segue che E(λ), contenendo due vettori, contiene ogni loro combinazione lineare; abbiamo così
completamente provato che E(λ) è un sottospazio di IKn .
Ora, E(λ) contiene un vettore non nullo v di IKn se, e solo se v è un autovettore cui è associato l’autovalore
λ.
Se λ è un autovalore dell’endomorfismo L : IKn −→ IKn , diremo che il sottospazio E(λ) è l’autospazio di
L relativo a λ.

6.3 Ricerca degli autovalori.


Per determinare gli autovalori dell’endomorfismo L : IKn −→ IKn , è utile la seguente proposizione:

Proposizione 75 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se B è una base per IKn ,
sia A = AB
L,B . Allora lo scalare λ di IK, risulta un autovalore di L se, e solo se, risulta:

det(A − λI) = 0, (6.13)

ove con il simbolo I è denotata la matrice In identica di ordine n.

Dimostrazione Dalla prop. precedente segue che λ è un autovalore di L se, e solo se, esiste un vettore
non nullo v ∈ IKn tale che:
L(v) = λv. (6.14)
Detta X la colonna delle coordinate di v ∈ IKn , valutate rispetto a B, la (6.14) equivale alla:

AX = λX. (6.15)

La (6.15), manifestamente equivale alla:


AX = λIX, (6.16)
e quindi alla:
AX − λIX = 0, (6.17)
la quale, infine, equivale alla:
(A − λI)X = 0. (6.18)
Pertanto, λ è un autovalore di L se, e solo se, esiste una colonna non nulla X che soddisfi alla (6.18). Il
sistema omogeneo (6.18) ammette autosoluzioni se, e solo se (cfr. 69), risulta: det(A − λI) = 0.
Dalla proposizione precedente segue che l’insieme degli autovalori dell’endomorfismo L : IKn −→ IKn
coincide con l’insieme delle soluzioni dell’equazione (6.13). Il primo membro della (6.13) è un polinomio di
grado n nell’indeterminata λ, a coefficienti in IK; diremo che tale polinomio è il polinomio caratteristico
di L. Il polinomio caratteristico dell’endomorfismo L non dipende dalla particolare scelta della base di IKn ,
come mostra la seguente proposizione:

Proposizione 76 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se B e B0 sono due basi
B0
per IKn , siano A = AB 0 n
L,B ed A = AL,B0 le matrici associate ad L quando in IK sono fissate le basi B e B
0

(rispettivamente). Allora per lo scalare λ di IK, risulta:

det(A − λI) = det(A0 − λI). (6.19)


n
Dimostrazione Dalla prop. 71. segue che se C = AB id,B0 è la matrice associata all’identità di IK quando
si passa dalla base B alla base B0 , necessariamente risulta A = C −1 A0 C, da cui segue:

A − λI = C −1 A0 C − λI, (6.20)

ed essendo I = C −1 C, dalla (6.20) segue:

A − λI = C −1 A0 C − C −1 λIC, (6.21)
48 CAPITOLO 6. DIAGONALIZZAZIONE

da cui si trae:
A − λI = C −1 (A0 − λI)C. (6.22)
In forza del teorema di Binet (equazione (A.89) in Appendice A), dalla (6.22) segue:
¡ ¢
det(A − λI) = det C −1 det(A0 − λI) det (C) . (6.23)
¡ ¢
Dalla (A.92) segue che det C −1 = (det (C))−1 ; dalla (6.23) segue allora:

det(A − λI) = det(A0 − λI). (6.24)

Dalle due ultime proposizioni segue subito che:

Proposizione 77 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Gli autovalori di L sono
tutti e soli gli zeri di IK del polinomio caratteristico di L.

Abbiamo visto che uno scalare λ ∈ IK è un autovalore di L se, e solo se esso risulta uno zero del polinomio
caratteristico di L. Diremo che l’autovalore λ e ha molteplicità algebrica p se, e solo se, la sua molteplicità
algebrica, quale zero del polinomio caratteristico è esattamente uguale a p; cioè se, e solo se, il polinomio
e p , ma non per (λ − λ)
caratteristico di L risulta divisibile per (λ − λ) e p+1 .

6.4 Diagonalizzazione di una matrice.


Cominciamo con il provare che:

Proposizione 78 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi v1 , v2 , ..., vm
autovettori di L relativi (rispettivamente) agli autovalori λ1 , λ2 , ..., λm a due a due distinti. In tali ipotesi
v1 , v2 , ..., vm risultano necessariamente indipendenti.

Dimostrazione Proveremo l’asserto per induzione. Se m = 1, l’autovettore v1 è sicuramente indipendente


poichè esso è non nullo (per definizione).
Supponiamo ora vero l’asserto nel caso m = t e proviamolo per il caso m = t + 1; all’uopo, siano
v1 , v2 , ..., vt , vt+1 autovettori relativi agli autovalori a due a due distinti λ1 , λ2 , ..., λt , λt+1 . Per ipotesi
induttiva è:
v1 , v2 , ..., vt sono indipendenti. (6.25)
Xt+1
Sia ora ki vi una combinazione lineare, a coefficienti in IK, dei vettori v1 , v2 , ..., vt , vt+1 . Supponiamo
i=1
che risulti:
t+1
X
ki vi = 0. (6.26)
i=1

Moltiplicando ambo i membri della (6.26) per l’autovalore λt+1 subito otteniamo:
à t+1 ! t+1
X X
λt+1 ki vi = λt+1 (ki vi ) = 0. (6.27)
i=1 i=1

Applicando L ad ambo i membri della (6.26) otteniamo invece:


à t+1 ! t+1
X X
L ki vi = ki L (vi ) = 0, (6.28)
i=1 i=1

da cui segue:
t+1
X t+1
X
ki (λi vi ) = λi (ki vi ) = 0. (6.29)
i=1 i=1

Sottraendo membro a membro la (6.29) dalla (6.27), risulta:


t
X
(λt+1 − λi ) (ki vi ) = 0. (6.30)
i=1
6.4. DIAGONALIZZAZIONE DI UNA MATRICE. 49

Il primo membro della (6.30) è una combinazione lineare nulla dei vettori v1 , v2 , ..., vt che, in forza della
ipotesi induttiva (6.25), sono indipendenti. Pertanto, necessariamente risulta:

(λt+1 − λi ) ki = 0 i = 1, 2, ..., t. (6.31)

Gli autovalori λ1 , λ2 , ..., λt sono tutti distinti da λt+1 e dalla (6.31) subito segue:

ki = 0 i = 1, 2, ..., t. (6.32)

Sostituendo nella (6.26) i valori di k1 , k2 , ..., kt forniti dalla (6.32), otteniamo:

kt+1 vt+1 = 0, (6.33)

da cui subito segue:


kt+1 = 0. (6.34)
Dalla (6.26) seguono allora le (6.32) e (6.34), cioè l’indipendenza dei vettori v1 , v2 , ..., vt , vt+1 .
Proviamo ora che:

Proposizione 79 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se esistono n autovalori
λ1 , λ2 , ..., λn di L, a due a due distinti, allora L risulta necessariamente diagonalizzabile.

Dimostrazione Siano v1 , v2 , ..., vn autovettori relativi agli autovalori λ1 , λ2 , ..., λn , rispettivamente. In


forza della prop. precedente, v1 , v2 , ..., vn risultano indipendenti, e dalla prop. 73 segue l’asserto.
Proviamo anche che:

Proposizione 80 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm
autovalori di L a due a due distinti. Allora, necessariamente, ogni vettore w della somma

E(λ1 ) + E(λ2 ) + ... + E(λm ), (6.35)

degli autospazi ad essi relativi si scrive in un modo ed in P


un modo soltanto nella forma v1 + v2 + ... + vm ,
n
ove, per ogni i = 1, ..., m, vi ∈ E(λi ). Pertanto la somma i=1 E(λi ) è diretta, cioè
n
X
E(λi ) = E(λ1 ) + E(λ2 ) + ... + E(λm ) = E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λm ). (6.36)
i=1

Dimostrazione Supponiamo che risulti:


m
X
w= vi , ove vi ∈ E(λi ), (6.37)
i=1

e supponiamo inoltre che:


m
X
w= vi0 , ove vi0 ∈ E(λi ). (6.38)
i=1

Dalle (6.37) e (6.38) segue:


m
X
(vi − vi0 ) = 0. (6.39)
i=1

Ciascun addendo della forma wi = (vi − vi0 ) è la differenza di due vettori di E(λi ), onde wi ∈ E(λi ) e dalla
(6.39) segue:
Xm
wi = 0. (6.40)
i=1

Gli addendi a primo membro della (6.40) sono allora tutti nulli; altrimenti la (6.40) esprimerebbe la dipendenza
lineare di autovettori relativi ad autovalori a due a due distinti e la prop. 78 esclude che ciò possa accadere.
Abbiamo così provato che, per ogni i = 1, ..., m, risulta:

0 = wi = (vi − vi0 ) , (6.41)

onde è:
vi = vi0 i = 1, ..., m. (6.42)
50 CAPITOLO 6. DIAGONALIZZAZIONE

Ogni vettore w della somma E(λ1 ) + E(λ2 ) + ... + E(λm ) si scrive dunque in modo univoco nella forma
v1 + v2 + ... + vm con
vi ∈ E(λi ), i = 1, ..., m, (6.43)
da cui
E(λ1 ) + E(λ2 ) + ... + E(λm ) = E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λm ). (6.44)

Proposizione 81 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm
autovalori di L a due a due distinti e supponiamo che le basi degli autospazi E(λ1 ), E(λ2 ), ..., E(λm ) ad essi
relativi siano, rispettivamente

Bi = (vi,1 , vi,2 , ..., vi,di ) , i = 1, 2, ..., m. (6.45)

Allora, necessariamente l’unione


m
[
B= Bi (6.46)
i=1
Pm Pm
è costituita da i=1 di vettori indipendenti, con di = dim [E(λi )]. Ne segue che la somma q = i=1 di delle
dimensioni degli autospazi E(λ1 ), E(λ2 ), ..., E(λm ) risulta non maggiore di n.

Dimostrazione Supponiamo che per la seguente combinazione lineare dei vettori di B, a coefficienti in
IK, risulti:
m Xdj
X
kj,i vj,i . (6.47)
j=1 i=1

Poniamo allora:
dj
X
kj,i , vj,i = wj j = 1, ..., m. (6.48)
i=1

La (6.47) implica allora:


m
X
wi = 0. (6.49)
i=1

Dalla (6.48) segue che, per i = 1, ..., m, risulta wi ∈ E(λi ); pertanto, ogni addendo a primo membro della
(6.49) è necessariamente nullo. Altrimenti la (6.49) esprimerebbe la dipendenza lineare di autovettori relativi
ad autovalori a due a due distinti e la prop. 78 esclude che ciò possa accadere. Pertanto è, per ogni i = 1, ..., m:

wi = 0. (6.50)

Dalle (6.50) e (6.48) segue allora:


di
X
ki,j , vi,j = 0. (6.51)
j=1

Poichè i vettori di Bi costituiscono una base per E(λi ), essi risultano indipendenti, onde dalla (6.51) segue
che, per i = 1, ..., m, necessariamente risulta:

ki,j = 0, j = 1, 2, ..., di . (6.52)

Ne segue che la (6.49) implica che risultano tutti nulli i coefficienti che in essa compaiono a primo membro,
onde l’indipendenza dei vettori di B, cioè l’asserto.
Possiamo ora provare che:

Proposizione 82 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm
tutti gli autovalori di L. Allora L risulta diagonalizzabile se, e solo se, la somma delle dimensioni degli
autospazi E(λ1 ), E(λ2 ), ..., E(λm ), relativi a λ1 , λ2 , ..., λm (rispettivamente), risulta uguale ad n.

PmDimostrazione Con riferimento alle notazioni della proposizione


Sm precedente, se la somma delle dimensioni
d
i=1 i degli autospazi è uguale ad n, allora l’unione B = B
i=1 i è costituita n autovettori indipendenti e
dalla prop. 73 segue che L risulta diagonalizzabile.
6.5. MOLTEPLICITÀ GEOMETRICA. 51

Supponiamo ora che L risulti diagonalizzabile, onde esiste una base B per IKn costituita da n autovettori
di L. Siano ora B1 , B2 , ..., Bm i sottoinsiemi di B così definiti, per i = 1, ..., m:
v ∈ Bi ⇐⇒ v ∈ B, v ∈ E(λi ). (6.53)
Evidentemente, B1 , B2 , ..., Bm risultano a due a due disgiunti ed inoltre la dimensione di E(λi ) è almeno pari
al numero dei vettori di Bi (poichè tali vettori appartengono al sottospazio E(λi ) e risultano indipendenti in
quanto appartenenti a B). Detta di la dimensione di E(λi ), allora risulta:
m
X
di = q ≥ n. (6.54)
i=1
Dalla prop. precedente segue che:
m
X
di = q ≤ n. (6.55)
i=1
Pertanto, dalle (6.54) e (6.55) segue l’asserto.

6.5 Molteplicità geometrica.


Sia λ ∈ IK un autovalore dell’endomorfismo L : IKn −→ IKn . Diremo che la molteplicità geometrica di λ è
d se è pari a d la dimensione dell’autospazio E(λ). Pertanto, all’autovalore λ, risultano associati i due numeri:
molteplicità algebrica p e molteplicità geometrica d. Proviamo ora che:
Proposizione 83 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se µ ∈ IK è un autovalore
di L, allora la molteplicità geometrica d di µ risulta necessariamente non superiore alla molteplicità algebrica
p di µ.
Dimostrazione Se la molteplicità geometrica di µ è d, allora sia B = (v1 , v2 , ..., vd ) una base per
E(µ). I vettori v1 , v2 , ..., vd sono d vettori indipendenti di IKn ed è allora possibile trovare n − d vettori
0
vd+1 , vd+2 , ..., vn di IKn tali che B0 = (v1 , v2 , ..., vd , vd+1 , ..., vn ) sia una base per IKn . La matrice AB
L,B
associata ad L quando in IKn è fissata la base B0 è costituita da n colonne A1 , A2 , ..., Ad , Ad+1 , ..., An . La
colonna Ai è (per ogni i = 1, ..., n) la colonna delle coordinate di L(vi ) valutate rispetto a B0 . Poichè
v1 , v2 , ..., vd ∈ E(µ), (6.56)
risulta, per j = 1, ..., d:
L(vj ) = µvj . (6.57)
j
Pertanto, la colonna A di A è (per ogni j = 1, ..., d) tutta nulla salvo che nella posizione j − ma ove compare
0
lo scalare µ. In definitiva, la matrice AB
L,B è della forma:
⎛ ⎞
µ 0 · · · 0 a1,d+1 a1,d+2 · · · a1,n
⎜ 0 µ · · · 0 a2,d+1 a2,d+2 · · · a2,n ⎟
⎜ ⎟
⎜ .. .. . . . .. .. .. .. ⎟
⎜ . .
⎜ . .. . . . . ⎟
⎟.
⎜ 0 0 · · · µ ad,d+1 ad,d+2 · · · ⎟ (6.58)
⎜ ad,n ⎟
⎜ . . . ⎟
⎝ .. .. . . ... ..
.
..
.
..
.
..
. ⎠
0 0 · · · 0 an,d+1 an,d+2 · · · an,n
Pertanto, il polinomio caratteristico di L (cfr. prop. 76) è:
⎛ ⎞
µ−λ 0 ··· 0 a1,d+1 a1,d+2 ··· a1,n
⎜ 0 µ − λ ··· 0 a2,d+1 a2,d+2 ··· a2,n ⎟
⎜ ⎟
⎜ .. .. .. .. .. .. .. .. ⎟
⎜ . . . . . . . . ⎟
det ⎜
⎜ 0
⎟ = 0.
⎟ (6.59)
⎜ 0 ··· µ−λ ad,d+1 ad,d+2 ··· ad,n ⎟
⎜ .. .. .. .. .. .. .. .. ⎟
⎝ . . . . . . . . ⎠
0 0 ··· 0 an,d+1 an,d+2 ··· an,n − λ
d
Pertanto il polinomio caratteristico di L risulta divisibile per (µ − λ) , onde la molteplicità algebrica di µ è
almeno d.
Concludiamo osservando che, dalla prop. 82, segue che:
Proposizione 84 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta
diagonalizzabile se, e solo se, la somma delle molteplicità geometriche dei suoi autovalori è uguale ad n.
52 CAPITOLO 6. DIAGONALIZZAZIONE
Capitolo 7

PRODOTTI SCALARI. TEORIA


GENERALE.

7.1 Definizione.
Sia VIK uno spazio vettoriale costruito sul campo IK. Sia poi

σ : VIK × VIK −→ IK (7.1)

un’applicazione del quadrato cartesiano di VIK in IK, cioè un’applicazione che ad ogni coppia ordinata (v, w)
di vettori di V associa uno scalare σ(v, w) ∈ IK. Diremo che σ è un prodotto scalare definito in V se
risultano verificati i seguenti assiomi:

∀v, w ∈ V, σ(v, w) = σ(w, v). (7.2)


0
∀v, v , w ∈ V, σ(v + v0 , w) = σ(v, w) + σ(v0 , w). (7.3)
∀v, w ∈ V, ∀h ∈ IK, σ(hv, w) = hσ(v, w). (7.4)

Se σ : VIK × VIK −→ IK è un prodotto scalare definito in V diremo che lo scalare σ(w, v) è il prodotto
scalare dei vettori v e w.
Cominciamo con il provare che:

Proposizione 85 Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ : VIK × VIK −→ IK è un prodotto
scalare definito in V, allora necessariamente risulta:

∀v, v0 , w ∈ V, σ(w, v + v0 ) = σ(w, v) + σ(w, v0 ). (7.5)


∀h ∈ IK, ∀v, w ∈ V, σ(v,hw) = hσ(v, w). (7.6)

Dimostrazione Dalla (7.2) segue:

σ(w, v + v0 ) = σ(v + v0 , w). (7.7)

Inoltre, dalla (7.3) risulta:


σ(v + v0 , w) = σ(v, w) + σ(v0 , w). (7.8)
Infine, dalla (7.2) si trae:
σ(v, w) + σ(v0 , w) = σ(w, v) + σ(w, v0 ). (7.9)
Dalle (7.7), (7.8) e (7.9) segue la (7.5). Per provare la (7.6) basta osservare che dalle (7.2) e (7.4) segue:

σ(v, hw) = σ(hw, v) = hσ(w, v). (7.10)

Dalla (7.2) segue infine:


hσ(w, v) = hσ(v, w). (7.11)
Le (7.10) e (7.11) implicano la (7.6), onde l’asserto.

53
54 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

7.2 Esempi.
Un esempio di prodotto scalare, che diremo nullo, definito nello spazio vettoriale V è dato (qual che sia lo
spazio V) dall’applicazione σ : VIK × VIK −→ IK così definita:

∀v, v0 , w ∈ V, σ(v, w) = 0. (7.12)

Sia ora IKn lo spazio delle n-ple ordinate di elementi del campo IK. Se

v = (x1 , x2 , ..., xn ), w = (y1 , y2 , ..., yn ),

sono due elementi di IKn , poniamo:


n
X
σ(v, w) = xi yi . (7.13)
i=1

L’applicazione σ : IKn × IKn −→ IK così definita, è un prodotto scalare definito in IKn , come è immediato
verificare. Diremo che il prodotto scalare così definito in IKn è l’ordinario prodotto scalare definito in IKn .

7.3 Ortogonalità.
Premettiamo la:

Proposizione 86 Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ : VIK × VIK −→ IK è un prodotto
scalare definito in V, allora necessariamente risulta:

∀v ∈ V, σ(v, 0) = σ(0, v) = 0. (7.14)

Dimostrazione Dalla prop. 1 segue che:

σ(v, 0) = σ(v, 0v). (7.15)

Dalla (7.6) si ha poi:


σ(v, 0v) = 0 σ(v, v) = 0. (7.16)
Dalle (7.15) e (7.16) segue σ(v, 0) = 0 e dalla (7.2) l’asserto.
Diremo che i vettori v e w dello spazio vettoriale V sono ortogonali rispetto al prodotto scalare σ definito
in V e scriveremo v ⊥σ w se il loro prodotto scalare σ(v, w) è nullo, cioè:

v ⊥σ w ⇐⇒ σ(v, w) = 0. (7.17)

Dalla (7.2) segue subito che:

Proposizione 87 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in
V. Allora la relazione ⊥σ di ortogonalità rispetto a σ risulta una relazione simmetrica definita in V, cioè:

∀v, w ∈ V, v ⊥σ w ⇐⇒ w ⊥σ v. (7.18)

Dalla prop. 86 segue inoltre che:

Proposizione 88 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in
V. Allora necessariamente risulta:
∀v ∈ V, v ⊥σ 0. (7.19)
Cioè, il vettore nullo di V risulta ortogonale, rispetto a σ, ad ogni vettore dello spazio.

Sia ora I 6= ∅ un qualsiasi insieme non vuoto di vettori di V. Denoteremo con I⊥σ la totalità dei vettori
di V, ciascuno dei quali sia ortogonale, rispetto al prodotto scalare σ definito in V, ad ogni vettore di I; cioè:

w ∈ I⊥σ ⇐⇒ ∀v ∈ I, w ⊥σ v. (7.20)

Proviamo al riguardo che:


7.4. MATRICE SIMMETRICA ASSOCIATA AD UN PRODOTTO SCALARE. 55

Proposizione 89 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in
V. Se I 6= ∅ è un qualsiasi insieme non vuoto di vettori di V, allora l’insieme I⊥σ definito in (7.20) risulta
un sottospazio di V che diremo ortogonale ad I (rispetto a σ). Inoltre risulta

I⊥σ = hIi⊥σ , (7.21)

cioè il sottospazio ortogonale all’insieme non vuoto I coincide con il sottospazio ortogonale al sottospazio hIi
di V generato da I.

Dimostrazione Dalla prop. 88 segue che 0 ∈ I⊥σ , onde è:

I⊥σ 6= ∅. (7.22)

Siano ora w1 e w2 ∈ I⊥σ ; allora necessariamente risulta:

∀v ∈ I, σ(v, w1 ) = σ(v, w2 ) = 0. (7.23)

Siano quindi h1 , h2 ∈ IK. Dalle (7.5) e (7.6) segue:

σ(v, h1 w1 + h2 w2 ) = h1 σ(v, w1 ) + h2 σ(v, w2 ). (7.24)

Sostituendo nella (7.24) i valori forniti dalle (7.23) si trae:

∀v ∈ I, σ(v,h1 w1 + h2 w2 ) = 0. (7.25)

Pertanto, se w1 e w2 ∈ I⊥σ , allora ogni loro combinazione lineare h1 w1 + h2 w2 risulta ortogonale ad ogni
vettore di I e quindi appartiene a I⊥σ . Da quanto detto e dalla (7.22) segue che I⊥σ è un sottospazio di V.
Per provare l’ultima parte dell’asserto basta osservare che se w ∈ I⊥σ allora esso risulta ortogonale ad
ogni vettore di I e quindi (cfr. (7.3) e (7.4)) ad ogni loro combinazione lineare; pertanto, se w ∈ I⊥σ allora
w ∈ hIi⊥σ . Se invece w ∈ hIi⊥σ , allora w risulta ortogonale ad ogni vettore di hIi e quindi di I, onde
w ∈ I⊥σ .

7.4 Matrice simmetrica associata ad un prodotto scalare.


Sia ora VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e σ un prodotto scalare
definito in V. Sia poi B = (v1 , v2 , ..., vn ) una base per V. È allora definita la matrice quadrata AσB = (ai,j )
di M(n × n, IK) nel modo che segue:

ai,j = σ(vi , vj )(i = 1, ..., n; j = 1, ..., n). (7.26)

AσB è quindi la matrice il cui elemento sulla i-ma riga e j-ma colonna è uguale al prodotto scalare σ(vi , vj )
dei vettori vi e vj della base B. Diremo che AσB è la matrice associata al prodotto scalare σ rispetto
alla base B di V.
Proviamo al riguardo che:

Proposizione 90 Sia ora VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e
σ un prodotto scalare definito in V. Se B = (vi , ..., vn ) è una base per V, sia A = AσB la matrice associata a
σ rispetto alla base B. Allora la matrice A risulta simmetrica, cioè:

A = AT . (7.27)

Inoltre, se X ed Y sono le colonne di coordinate, valutate rispetto a B, dei vettori v e w (rispettivamente) di


V, allora necessariamente risulta:
σ(v, w) = X T AY. (7.28)

Dimostrazione La (7.2) implica che ai,j = σ(vi , vj ) = σ(vj , vi ) = aj,i . Pertanto, A è simmetrica e
sussiste la (7.27). Per provare la (7.28), osserviamo che, posto:

X = (x1 , x2 , ..., xn )T ; Y = (y1 , y2 , ..., yn )T , (7.29)


Pn Pn
allora è v = i=1 xi vi ; w = j=1 yj vj ; onde è:
⎛ ⎞
Xn n
X
σ(v, w) = σ ⎝ xi vi , yj vj ⎠ . (7.30)
i=1 j=1
56 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

Dalle (7.3) e (7.4) segue poi:


⎛ ⎞ ⎛ ⎞
Xn n
X n
X n
X
σ ⎝ xi vi , yj vj ⎠ = xi σ ⎝vi , yj vj ⎠ . (7.31)
i=1 j=1 i=1 j=1

Dalle (7.5) e (7.6) segue anche:


⎛ ⎞
n
X n
X n
X n
X
xi σ ⎝vi , yj vj ⎠ = xi yj σ (vi , vj ) , (7.32)
i=1 j=1 i=1 j=1

ed è: n n n X
n
X X X
xi yj σ (vi , vj ) = xi yj σ (vi , vj ) . (7.33)
i=1 j=1 i=1 j=1

Dalle (7.30), (7.31), (7.32), (7.33) e (7.26) segue allora:


X n
n X X n
n X X n
n X
σ(v, w) = xi yj σ (vi , vj ) = xi yj ai,j = xi ai,j yj , (7.34)
i=1 j=1 i=1 j=1 i=1 j=1

che si scrive nella forma più compatta (7.28), onde l’asserto.


Se σ è il prodotto scalare nullo (cfr. 7.3) definito nello spazio vettoriale VnIK di dimensione finita n (n ≥ 1)
costruito sul campo IK, allora, quale che sia la base B = (v1 , v2 , ..., vn ) per V, la matrice AσB associata a σ,
rispetto a B, è la matrice nulla, cioè:
AσB = 0. (7.35)
Se σ è l’ordinario prodotto scalare definito in IKn (cfr. 7.3), n ≥ 1, allora la matrice AσN associata a σ,
rispetto alla base naturale N di IKn è la matrice identica In . In tal caso la (7.28) diviene la (7.13).
Proviamo ora che:
Proposizione 91 Siano IKn (n ≥ 1), lo spazio vettoriale delle n-ple ordinate di elementi del campo IK ed N
la base naturale per esso. Sia poi A ∈ M(n × n, IK) una matrice quadrata d’ordine n e simmetrica ad elementi
in IK. Se v = (x1 , x2 , ..., xn ) e w = (y1 , y2 , ..., yn ) sono due vettori di IKn , poniamo:
σ(v, w) = X T AY. (7.36)
In tali ipotesi l’applicazione σ : IKn × IKn −→ IK definita in (7.36) risulta un prodotto scalare definito in IKn .
Dimostrazione Cominciamo con il provare che σ verifica la (7.2); evidentemente è:
σ(w, v) = Y T AX. (7.37)
Inoltre, essendo A = AT e dalla A.80 segue:
Y T AX = Y T AT X = (X T AY )T . (7.38)
Infine, essendo X T AY una matrice quadrata d’ordine uno, coincide con la sua trasposta e risulta:
(X T AY )T = X T AY. (7.39)
Dalle (7.37), (7.38) e (7.39) si trae:
σ(w, v) = X T AY. (7.40)
Dalle (7.36) e (7.40) segue allora:
σ(w, v) = σ(v, w). (7.41)
Pertanto, l’applicazione σ verifica la (7.2); Dalla (A.79) segue che σ verifica la (7.3) e dalla (A.84) segue che
σ verifica la (7.4), onde l’asserto.
Proposizione 92 Siano VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e
B = (v1 , v2 , ..., vn ) una base per esso. Se A ∈ M(n × n, IK) è una matrice quadrata d’ordine n e simmetrica
ad elementi in IK, dette X ed Y le colonne delle coordinate dei vettori v e w (rispettivamente) di V, valutate
rispetto a B, poniamo:
σ(v, w) = X T AY. (7.42)
In tali ipotesi l’applicazione σ : V × V −→ IK definita in (7.36) risulta un prodotto scalare definito in V.
Dimostrazione Analoga alla dimostrazione della proposizione precedente.
7.5. BASI ORTOGONALI. 57

7.5 Basi ortogonali.


Sia VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK nel quale è definito il
prodotto scalare σ. Se B = (v1 , v2 , ..., vn ) è una base per V, è individuata la matrice AσB . Diremo che B è
ortogonale rispetto a σ, se risulta:
AσB è diagonale. (7.43)
Evidentemente, se n = 1, ogni base di V risulta ortogonale rispetto ad ogni prodotto scalare definito in V
(perchè in tal caso AσB risulta d’ordine uno e quindi diagonale).
Per il caso n ≥ 2, proviamo ora che:

Proposizione 93 Sia VnIK uno spazio vettoriale di dimensione finita n (n ≥ 2) costruito sul campo IK nel
quale è definito il prodotto scalare σ. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Allora B è ortogonale
rispetto a σ se, e solo se, i vettori di B risultano a due a due ortogonali rispetto a σ, cioè se, e solo se risulta:

∀vi , vj ∈ B; vi 6= vj =⇒ vi ⊥σ vj . (7.44)

Dimostrazione Dalla (7.26) segue che AB


σ è diagonale se, e solo se, risulta:

∀vi , vj ∈ B; vi 6= vj =⇒ σ(vi , vj ) = 0. (7.45)

La (7.45) equivale alla (7.44), onde l’asserto.

7.6 Prodotto scalare non degenere. Prodotti definiti positivi.


Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ è un prodotto scalare definito in V, diremo che σ
è degenere se esiste un vettore non nullo di V che risulta ortogonale, rispetto a σ, ad ogni vettore di V.
Diremo invece che il prodotto scalare σ definito nello spazio vettoriale VIK è non degenere se l’unico
vettore di V che risulta ortogonale ad ogni vettore di V è il vettore nullo; cioè se risulta:

∀v ∈ V, σ(v, w) = 0 =⇒ w = 0. (7.46)

Un esempio di prodotto scalare non degenere, è fornito dall’ordinario prodotto scalare σ (cfr. (7.13))
definito nello spazio vettoriale IKn (n ≥ 1) delle n-ple ordinate di elementi del campo IK. In tal caso infatti,
se il vettore w = (y1 , y2 ..., yn ) risulta ortogonale ad ogni vettore di IKn , esso deve, in particolare, risultare
ortogonale ad ogni vettore ei della base naturale N di IKn ; l’ordinario prodotto scalare σ(ei , w) è dato dalla
i-ma componente yi di w; pertanto, risulta

yi = 0, ∀i = 1, ..., n. (7.47)

Ne segue w = 0.
Nel seguito, ci occuperemo di una particolare classe di prodotti scalari non degeneri, definiti in spazi
vettoriali costruiti sul campo reale.
Siano dunque IK = IR e VIR uno spazio vettoriale costruito sul campo reale IR. Se σ : VIR × VIR −→ IR è
un prodotto scalare definito in V, diremo che σ è definito positivo se esso verifica le:

∀v ∈ V, σ(v, v) ≥ 0, (7.48)
σ(v, v) = 0 ⇐⇒ v = 0. (7.49)

Evidentemente, ogni prodotto scalare definito positivo risulta non degenere (poichè per ogni vettore non
nullo v, esiste un vettore w ad esso non ortogonale ed è il vettore w = v).

Proposizione 94 Sia VIR uno spazio vettoriale costruito sul campo dei reali, nel quale sia introdotto il prodot-
to scalare definito positivo σ. Se v1 , v2 , ...vm sono vettori non nulli di V, a due a due ortogonali (rispetto a
σ), allora necessariamente risulta:

v1 , v2 , ...vm sono indipendenti. (7.50)

Dimostrazione Sia:
m
X
v= xj vj , (7.51)
j=1
58 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

una combinazione lineare di v1 , v2 , ...vm a coefficienti (rispettivamente) x1 , x2 , ...xm .


Se risulta:
Xm
v= xj vj = 0, (7.52)
j=1

consideriamo il prodotto scalare


⎛ ⎞
m
X
0 = σ (vi , v) = σ ⎝vi , xj vj ⎠ i = 1, 2, ..., m. (7.53)
j=1

Evidentemente è (dalle proprietà di prodotto scalare):


⎛ ⎞
m
X Xm
σ ⎝vi , xj vj ⎠ = xj σ (vi , vj ) i = 1, 2, ..., m. (7.54)
j=1 j=1

L’elemento σ (vi , vj ) che compare nel secondo membro della (7.54) è (poichè i vettori v1 , v2 , ...vm sono a due
a due ortogonali per ipotesi) uguale a zero, ogni qual volta risulti i 6= j. Pertanto, risulta:
m
X
xj σ (vi , vj ) = xi σ (vi , vi ) . (7.55)
j=1

Dalle (7.53) (7.54) e (7.55) segue:


σ (vi , v) = xi σ (vi , vi ) . (7.56)
Poichè v = 0 dalla (7.56) segue:

0 = σ (vi , 0) = σ (vi , v) = xi σ (vi , vi ) i = 1, 2, ..., m. (7.57)

Il prodotto scalare σ è per ipotesi definito positivo, onde è;

σ (vi , vi ) > 0. (7.58)

Dalla (7.57) e (7.58) segue che:


xi = 0 i = 1, 2, ..., m. (7.59)
Le considerazioni svolte sinora ci inducono a dedurre che dalla (7.52) segue la (7.59), onde l’asserto.
Sia ora A una matrice ad m righe ed n colonne ad elementi reali. È ben noto che, se il rango di A è p,
allora il sottospazio S di IRm generato dalle colonne di A ha dimensione p; cioè:
¡­ ®¢
R (A) = p =⇒ dim A1 , A2 , ..., Am = p. (7.60)

(ove A1 , A2 , ..., Am sono le colonne di A).


Proviamo ora che:

Proposizione 95 La totalità T dei vettori di IRm , pensati come vettori colonna, ciascuno dei quali è orto-
gonale ad ogni colonna di A è un sottospazio di IRm .

Dimostrazione Ovvia conseguenza della proposizione (89) dal momento che


­ ®
T := A1 , A2 , ..., Am ⊥ . (7.61)

Proviamo ora che:

Proposizione 96 Sia A la matrice ad m righe le cui n colonne siano:

A1 , A2 , ..., An ∈ IRn . (7.62)


­ ®
Detto S = A1 , A2 , ..., An il sottospazio generato dalle colonne di A risulta (dove T è definito nella prop
precedente):
Y ∈ S ⇐⇒ Y ⊥ U ∀U ∈ T. (7.63)
7.6. PRODOTTO SCALARE NON DEGENERE. PRODOTTI DEFINITI POSITIVI. 59

Dimostrazione Sia
Y ∈ S ⇐⇒ ∃ (λ1 , λ2 , ..., λn ) ∈ IRn , (7.64)
tale che: n
X
Y = λj Aj . (7.65)
j=1

Se U ∈ T risulta: ¡ ¢
σ U, Ai = 0 i = 1, 2, ..., n, (7.66)
cioè:
U ⊥ Ai i = 1, 2, ..., n, (7.67)
ed è: ⎛ ⎞
n
X n
X n
¡ ¢ X

σ U, λj Aj⎠
= j
λj σ U, A = λj 0 = 0. (7.68)
j=1 j=1 j=1

Ne segue che:
Y ∈ S =⇒ σ (Y, U ) = 0 ∀U ∈ T. (7.69)
La (7.69) si inverte semplicemente e ne segue l’asserto.
Definiamo ora il concetto di norma.
Sia VIR un spazio vettoriale costruito sul campo IR. Sia poi
k·k : VIR −→ IR, (7.70)
una applicazione di VIR in IR. Diremo che k·k è una norma definita in V se risultano verificati i seguenti
assiomi:

∀v ∈ V, kvk ≥ 0, e kvk = 0 ⇐⇒ v = 0. (7.71)


∀h ∈ IK, ∀v ∈ V, khvk = |h| kvk . (7.72)
Proposizione 97 Sia VIR uno spazio vettoriale costruito sul p campo reale IR nel quale sia introdotto il prodotto
scalare σ definito positivo. Sia poi v ∈ V, allora lo scalare σ(v, v) individua una norma di v in V. Possiamo
cioè scrivere: p
kvk = σ(v, v). (7.73)
Tale norma è detta norma Euclidea. Si può inoltre dimostrare che in IRn munito dell’ordinario prodotto
scalare (7.13), essa coincide con il modulo |·| del vettore, cioè:
∀v ∈IRn kvk = |v| . (7.74)
Si osserva che la (7.74) è verificata esclusivamente per la particolare norma definita in (7.73).
Dimostrazione Per dimostrare l’asserto dobbiamo provere che la norma definita in (7.73) verifica gli
assiomi, (7.71) e (7.72).
La prova della (7.71) è una immediata conseguenza della definizione di prodotto scalare definito positivo
su VIR .
Mostriamo ora la (7.72).Dalla (7.73) segue che:
p
khvk = σ(hv,hv). (7.75)
In forza della (7.4) e della (7.10) si ha:
p p
σ(hv,hv) = h2 σ(v, v). (7.76)
Le proprietà dei radicali ci consentono di scrivere:
p p
h2 σ(v, v) = |h| σ(v, v). (7.77)
Dalle (7.75), (7.76), (7.77) e (7.73) si ottiene infine:

khvk = |h| kvk . (7.78)

Proviamo ora che:


60 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

Proposizione 98 Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto
scalare σ definito positivo. Se v è un vettore non nullo di V, allora il vettore

v0 = kvk−1 v, (7.79)

ottenuto dal prodotto di v per l’inverso della sua norma euclidea (suo modulo), ha norma euclidea e modulo
b.
unitari. Tale vettore di norma unitaria sarà detto versore del vettore v, e verrà indicato con il simbolo v

Dimostrazione Ovvia conseguenza della (7.72).


Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto scalare σ
definito positivo. Se v è un vettore non nullo di V e w ∈ V, è individuato lo scalare:

σ(w, v) σ(w, v)
= , (7.80)
σ(v, v) kvk2

che diremo coefficiente di Fourier di w rispetto a v. Se c è il coefficiente di Fourier di w rispetto a v è allora


definito il vettore cv che diremo proiezione ortogonale o componente di w rispetto a v. La definizione
introdotta è giustificata dalla seguente proposizione:

Proposizione 99 Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto
scalare σ definito positivo. Se v è un vettore non nullo di V e w ∈ V, sia c il coefficiente di Fourier di w
rispetto a v. Allora il vettore v ed il vettore w0 = w − cv sono ortogonali, rispetto a σ.

Dimostrazione Dalla (7.80) segue che:

σ(w, v)
w0 = w − v. (7.81)
kvk2

In forza delle (7.3) e (7.4) allora risulta:


à !
0 σ(w, v) σ(w, v)
σ(v, w ) = σ v, w − 2 v = σ(v, w) − 2 σ(v, v). (7.82)
kvk kvk

Dalle (7.82) e (7.2) si trae:


σ(v, w0 ) = σ(v, w) − σ(w, v) = 0. (7.83)
0
Pertanto, i vettori v e w risultano ortogonali, rispetto a σ, onde l’asserto.
Per il caso in cui lo spazio V sia di dimensione finita n ≥ 1, proviamo ora che:

Proposizione 100 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e
nel quale sia introdotto il prodotto scalare σ definito positivo. È allora possibile trovare una base

B = (w1 , w2 , ..., wn ) ,

per V ortogonale, rispetto a σ.

Dimostrazione Sia (v1 , v2 , ..., vn ) una base per V. Sono allora individuati i vettori:

w1 = v1 ,
σ(v2 , w1 )
w2 = v2 − 2 w1 ,
kw1 k
..
. (7.84)
n−1
X σ(vn , wi )
wn = vn − 2 wi .
i=1 kwi k

Il vettore w1 coincide con v1 ed il vettore wi (i = 2, 3, ..., n) è ottenuto sottraendo a wi le sue componenti


secondo w1 , w2 , ..., wi−1 .
In forza della prop. 99, il vettore w2 ed il vettore w1 risultano ortogonali rispetto a σ, cioè:

σ(w2 , w1 ) = 0. (7.85)
7.6. PRODOTTO SCALARE NON DEGENERE. PRODOTTI DEFINITI POSITIVI. 61

Proviamo ora che w3 risulta ortogonale, rispetto a σ, sia a w2 che a w1 . A tal fine osserviamo che:
σ(v3 , w2 ) σ(v3 , w1 )
σ(w3 , w1 ) = σ(v3 , w1 ) − 2 σ(w2 , w1 ) − σ(w1 , w1 ). (7.86)
kw2 k kw1 k2

Dalle (7.85) ed essendo kw1 k2 = σ(w1 , w1 ) segue:


σ(w3 , w1 ) = σ(v3 , w1 ) − σ(v3 , w1 ) = 0. (7.87)
Osserviamo inoltre che:
σ(v3 , w2 ) σ(v3 , w1 )
σ(w3 , w2 ) = σ(v3 , w2 ) − 2 σ(w2 , w2 ) − 2 σ(w1 , w2 ). (7.88)
kw2 k kw1 k
2
Dalle (7.88) e (7.85), poichè kw2 k = σ(w2 , w2 ), segue:
σ(w3 , w2 ) = σ(v3 , w2 ) − σ(v3 , w2 ) = 0. (7.89)
Abbiamo così visto che:
σ(w3 , w2 ) = σ(w3 , w1 ) = 0. (7.90)
Con analoghe considerazioni è possibile provare che ogni vettore wi (i = 2, 3, ..., n) risulta ortogonale,
rispetto a σ, a ciascuno dei vettori w1 , w2 , ..., wi−1 . Pertanto, risulta:
i 6= j =⇒ wi ⊥σ wj . (7.91)
Abbiamo così visto che:
I vettori di (w1 , w2 , ..., wn ) sono a due a due ortogonali rispetto a σ. (7.92)
Proviamo ora che (w1 , w2 , ..., wn ) è una base per V. Evidentemente, dalle posizioni (7.84) segue che
v1 = w1 e che:
Xi−1
σ(vi , wj )
vi = wi + 2 wj i = 2, 3, .., n. (7.93)
j=1 kwj k

Pertanto, ogni vettore vi appartiene al sottospazio hw1 , w2 , ..., wi i di V generato dai vettori w1 , w2 , ..., wi e
quindi anche al sottospazio hw1 , w2 , ..., wn i generato da w1 , w2 , ..., wn . Cioè:
vi ∈ hw1 , w2 , ..., wn i i = 2, 3, .., n. (7.94)
Dalla (7.94) segue allora:
Vn = hv1 , v2 , ..., vn i ≤ hw1 , w2 , ..., wn i ≤ Vn . (7.95)
Dalla (7.95) risulta:
Vn = hw1 , w2 , ..., wn i . (7.96)
Gli n vettori w1 , w2 , ..., wn generano allora lo spazio n-dimensionale V e quindi costituiscono una base per
esso. Da quanto ora detto e dalla (7.92) segue che (w1 , w2 , ..., wn ) è una base di V, ortogonale rispetto al
prodotto scalare σ.
Il procedimento descritto nella proposizione precedente è detto metodo di ortogonalizzazione di
Gram-Schmidt. Tale metodo fornisce una tecnica per costruire una base ortogonale B0 , a partire da una
base qualunque B dello spazio vettoriale Vn .
Sia ora VnIR uno spazio vettoriale di dimensione finita n, costruito sul campo reale, nel quale sia stato
introdotto un prodotto scalare definito positivo σ. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Diremo che B
è ortonormale rispetto a σ se essa è ortogonale rispetto a σ e se inoltre risulta:
|vi | = 1 i = 1, ..., n. (7.97)
Quindi, una base è ortonormale rispetto a σ, se risulta costituita da vettori di modulo unitario ed a due a
due ortogonali. Evidentemente, dalla proposizione 98 e con semplici calcoli, segue che:
Proposizione 101 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR
e nel quale sia introdotto il prodotto scalare σ definito positivo. Se B = (w1 , w2 , ..., wn ) è una base per V,
ortogonale rispetto a σ, allora necessariamente i vettori:
wi
ui = i = 1, ..., n (7.98)
kwi k
costituiscono una base per V, ortonormale rispetto a σ.
62 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

Inoltre:

Proposizione 102 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel
quale sia introdotto il prodotto scalare σ definito positivo. Allora esiste almeno una base B per V, ortonormale
rispetto a σ. Inoltre, la matrice AσB associata a σ, quando in V è fissata la base B, coincide con la matrice
identica In .

Dimostrazione Dalle prop. 100 e 101 segue l’esistenza di B. Dalla definizione di AσB segue poi che tale
matrice coincide con In .
Osserviamo esplicitamente che, se in V è fissata una base ortonormale B, allora dette X ed Y le colonne
delle coordinate dei vettori v e w (rispettivamente), valutate rispetto a B, necessariamente risulta (cfr. prop.
92 e 102):
σ(v, w) = X T In Y = X T Y. (7.99)
Siano VnIR e WnIR due spazi vettoriali di dimensione n costruiti sul campo dei reali. In essi siano introdotti
i prodotti scalari σ e σ 0 (rispettivamente) entrambi definiti positivi. Proviamo, al riguardo, che:

Proposizione 103 Sia L : V −→ W un’applicazione che conserva il prodotto scalare:

∀ v, w ∈V σ 0 (L (v) , L (w)) = σ (v, w) , (7.100)

Allora, necessariamente, la L è un’applicazione lineare.

Dimostrazione Poichè σ è definito positivo, è possibile trovare una base ortonormale (rispetto a σ) per
V; sia essa B = (v1 , v2 , ...vn ). Allora risulta:
¡ ¢
σ vi , vj = δ ij i = 1, 2, ..., n j = 1, 2, ..., n. (7.101)

Poniamo ora:
wi = L (vi ) i = 1, 2, ..., n. (7.102)
Dalla (7.100) e (7.101) risulta:

σ 0 (wi , wj ) = δ ij i = 1, 2, ..., n j = 1, 2, ..., n. (7.103)

Pertanto i vettori w1 , w2 , ...wn di W sono a due e due ortogonali e di modulo unitario. Ne segue (cfr. prop.
94) che essi risultano indipendenti e che, quindi, formano una base B0 ortonormale (rispetto a σ 0 ) per lo spazio
n-dimensionale W.
Sia ora v ∈V. Poichè B è una base per V risultano univocamente determinati gli scalari x1 , x2 , ...xn ∈ IR
tali che:
Xn
v= xi vi . (7.104)
i=1

Evidentemente (dalla (7.101) e dalle proprietà di prodotto scalare) risulta:

σ (v, vi ) = xi i = 1, 2, ..., n. (7.105)

Sia ora w =L (v). Esso si scrive in esattamente un modo come combinazione lineare dei vettori di B0 . Poniamo:
n
X
w= yi wi . (7.106)
i=1

Evidentemente è (dalla (7.103) e dalle proprietà di prodotto scalare):

σ0 (w, wi ) = yi i = 1, 2, ..., n. (7.107)

Da quanto detto e poichè è:


w =L (v) e wi =L (vi ) i = 1, 2, ..., n, (7.108)
dalle (7.100), (7.105) e (7.107) segue:

yi = σ 0 (w, wi ) = σ 0 (L (v) , L (vi )) = σ (v, vi ) = xi i = 1, 2, ..., n. (7.109)


7.7. CAMBIAMENTI DI BASI ORTONORMALI. 63

Pertanto il vettore w = L (v) si scrive:


n
X
w= xi wi . (7.110)
i=1
Da quanto detto segue che: Ã !
n
X n
X
L v= xi vi = xi wi . (7.111)
i=1 i=1

L’applicazione L porta allora il vettore v ∈V di coordinate (x1 , x2 , ...xn ) (valutate rispetto a B) nel vettore
w ∈W di coordinate (x1 , x2 , ...xn ) (valutate rispetto a B0 ). La L è allora manifestamente lineare.

7.7 Cambiamenti di basi ortonormali.


Proviamo subito che:

Proposizione 104 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR
e nel quale sia introdotto il prodotto scalare σ definito positivo. Sia poi B = (u1 , u2 , ..., un ) una base per V
ortonormale rispetto a σ. Se B0 = (v1 , v2 , ..., vn ) è una base per V, allora B0 è ortonormale rispetto a σ, se e
solo se, detta
A = ABid,B0 , (7.112)
la matrice associata all’applicazione lineare identica di V in sè, quando si passa dalla base B alla base B0 ,
risulta:
AAT = In . (7.113)
0
Dimostrazione Sia B = AB id,B . La j − ma colonna di B è la colonna delle coordinate di vj valutate
rispetto a B. L’elemento posto sulla i-ma riga e j-ma colonna della matrice B T B è allora dato (cfr. (7.99))
dal prodotto scalare di vi e vj . Pertanto, la base B0 è ortonormale, rispetto a σ, se, e solo se, risulta:

B T B = In . (7.114)

Poichè è B = A−1 , dalla (7.114) segue che B 0 è ortonormale, rispetto a σ, se, e solo se, risulta:

(A−1 )T A−1 = In , (7.115)

che equivale a : (A−1 )T = A, e cioè: A−1 = AT , onde la (7.113).

7.8 Complementi ortogonali.


Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel quale sia introdotto
il prodotto scalare σ definito positivo. Sia poi W un sottospazio di V. È allora individuato il sottospazio
W⊥σ di V definito nella proposizione 89, costituito dalla totalità dei vettori di V, ciascuno dei quali risulta
ortogonale ad ogni vettore di W. Il sottospazio W⊥σ prende il nome di complemento ortogonale di W,
rispetto a σ. Proviamo al riguardo che:

Proposizione 105 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR
e nel quale sia introdotto il prodotto scalare σ definito positivo. Siano poi W un sottospazio di V e W⊥σ il
complemento ortogonale di W, rispetto a σ. Allora detta p la dimensione di W e detta q la dimensione di
W⊥σ , necessariamente risulta:
p + q = n. (7.116)
Inoltre, lo spazio V risulta somma diretta di W e W⊥σ , cioè:

V = W ⊕ W⊥σ . (7.117)

Dimostrazione Se W ha dimensione p, sia B0 = (u1 , u2 , ..., up ) una base ortonormale per esso (certo
esistente in forza della prop. 102). È allora possibile trovare vettori vp+1 , vp+2 , ..., vn in modo che

B00 = (u1 , u2 , ..., up , vp+1 , ..., vn ) (7.118)

sia una base per V. Con il metodo di ortogonalizzazione di Gram-Schmidt è poi possibile costruire da B00 una
base ortogonale
B000 = (u1 , u2 , ..., up , wp+1 , ..., wn ) (7.119)
64 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.

per V. Dividendo ogni vettore di B000 per il suo modulo si ottiene una base ortonormale

B = (u1 , u2 , ..., up , up+1 , ..., un ) (7.120)

per V. Osserviamo esplicitamente che i primi p vettori di B sono i vettori della base B0 di W.
Possiamo ora provare che:
v ∈ W⊥σ ⇐⇒ v ⊥σ ui i = 1, 2, ..., p. (7.121)
Infatti, se v ∈ W⊥σ , allora v risulta ortogonale ad ogni vettore di W e quindi anche ai vettori u1 , u2 , ..., up
della base B0 di W. Se invece v è ortogonale ad ogni vettore di B0 , allora (cfr. (7.3) e (7.4)) esso risulta
ortogonale ad ogni loro combinazione
P lineare e quindi ad ogni vettore di W. Si è così vista la (7.121). Dalla
(7.121) segue che se v ∈ V e v = ni=1 xi ui , allora risulta:

v ∈ W⊥σ ⇐⇒ xi = 0 i = 1, 2, ..., p. (7.122)

Pertanto, si ha W⊥σ = hup+1 , up+2 , ..., un i, onde per la dimensione q di W⊥σ risulta:

q = n − p. (7.123)

Dalla (7.123) segue subito la (7.116).


Infine, se v ∈ V esso si scrive nella forma:
p
X n
X
v= xi ui + xi ui ; (7.124)
i=1 i=p+1

poichè i primi p addendi della combinazione lineare a secondo membro della (7.124) appartengono a W ed gli
ultimi q addendi di tale combinazione lineare appartengono a W⊥σ , il vettore v risulta somma di un elemento
di W e di un elemento di W⊥σ . Pertanto è:

V = W + W⊥σ . (7.125)

Poichè W ha dimensione p, W⊥σ ha dimensione q, la loro somma V = W + W⊥σ ha dimensione n = p + q,


dalla relazione di Grassmann segue che il sottospazio intersezione V = W∩W⊥σ ha dimensione zero e si riduce
allo spazio nullo {0}. Dalla prop. 29 segue allora la (7.117), onde l’asserto.
La proposizione precedente ammette una parziale generalizzazione, di cui omettiamo la dimostrazione:

Proposizione 106 Sia VnIK uno spazio vettoriale di dimensione finita n ≥ 1, costruito campo IK e nel quale
sia introdotto il prodotto scalare non degenere (cfr. (7.46)) σ. Siano poi W un sottospazio di V e W⊥σ
il complemento ortogonale (costituito dalla totalità dei vettori di V, ciascuno dei quali risulta ortogonale,
rispetto a σ, ad ogni vettore di W) di W. Allora, detta p la dimensione di W e detta q la dimensione di W⊥σ ,
necessariamente risulta
p + q = n. (7.126)

Il teorema di Rouchè-Capelli asserisce che il sistema:

AX = B, (7.127)

ove A è una matrice m × n, è compatibile se, e solo se, la colonna B dei termini noti dipende dalle colonne di
A; cioè (dette A1 , A2 , ..., An le colonne di A):
­ ®
(7.127) è compatibile ⇐⇒ B ∈ A1 , A2 , ..., An = S. (7.128)

Con riferimento all’enunciato della proposizione 96 è allora evidente che:

(7.127) è compatibile ⇐⇒ B ⊥ U ∀U ∈ T. (7.129)

Poichè il sottospazio T di cui all’enunciato della proposizione 96 è il luogo delle soluzioni del sistema omogeneo
AT U = 0 risulta che il teorema di Rouchè-Capelli implica (unitamente a quanto detto in queste righe):

Proposizione 107 Il sistema (7.127), ove A e B sono ad elementi reali, è compatibile se, e solo se, la
colonna B dei termini noti è ortogonale ad ogni soluzione del sistema omogeneo duale AT U = 0.

La proposizione precedente è nota con il nome di teorema dell’alternativa di Fredholm.


Capitolo 8

DIAGONALIZZAZIONE DEGLI
ENDOMORFISMI SIMMETRICI IN
IRn

8.1 Premessa.
Premettiamo le:

Proposizione 108 Sia X T = (x1 , x2 , ..., xn ), un elemento di Cn . Se X = (x1 , x2 , ..., xn )T è la colonna


coniugata di X, allora necessariamente risulta:

X T X ∈ IR; (8.1)
T
X X ≥ 0; (8.2)
T
X X = 0 ⇐⇒ X = 0. (8.3)

Dimostrazione Evidentemente è:
n
X
X TX = xj xj . (8.4)
j=1

Ne segue:
n
X n
X n
X n
X
X TX = xj xj = xj xj = xj xj = xj xj = X T X, (8.5)
j=1 j=1 j=1 j=1

onde la (8.1).
Inoltre, se xj ∈ IR, allora xj xj = x2j ≥ 0; se invece xj ∈
/ IR, risulta xj = aj + ibj , ed è xj xj = a2j + b2j ≥ 0;
T
da cui segue che X X è somma di reali non negativi, onde la (8.2).
Infine, X T X = 0 se, e solo se, risulta xj = 0, per ogni j = 1, ..., n, onde la (8.3).

Proposizione 109 Se A è una matrice quadrata simmetrica d’ordine n ad elementi reali, allora ogni soluzione
dell’equazione in λ:
det(A − λI) = 0, (8.6)
è necessariamente reale.

Dimostrazione Sia LN n n n
A,N : C −→ C applicazione lineare di C in sé, associata ad A quando in C sia
n

stata fissata la base naturale N .


Le soluzioni di (8.6) sono tutti e soli gli autovalori di L. Esistono esattamente n soluzioni complesse di
(8.6), quando ciascuna di esse sia contata con la propria molteplicità. Proviamo ora che tali soluzioni risultano
tutte reali.
Sia, a tal fine, λ una soluzione di (8.6). Allora λ è un autovalore di L e (cfr. prop. 74. e 75.) nello spazio
E(λ) esiste qualche vettore X T = (x1 , x2 , ..., xn ) 6= 0. Allora è:

AX = λX; X 6= 0. (8.7)

65
66 CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN

Coniugando ambo i membri della (8.7), risulta (ricordiamo che essendo A ad elementi reali è A = A):
AX = λX. (8.8)
Dalla (8.8), segue che λ è un autovalore di L e che X è un autovettore di E(λ); (Poichè X 6= 0,è X 6= 0).
T
Consideriamo ora il prodotto X AX; tale prodotto è una matrice quadrata d’ordine uno che, quindi,
coincide con la sua trasposta, cioè:
T T
X AX = (X AX)T . (8.9)
Inoltre è:
T T
(X AX)T = X T AT (X )T = X T AT X. (8.10)
T
Poichè A è simmetrica, risulta, A = A e dalla (8.10) segue:
T
(X AX)T = X T AX. (8.11)
Dalle (8.9) e (8.11) segue:
T
X AX = X T AX. (8.12)
T
Se ne deduce (cfr. (8.7) e (8.8)): X (λX) = X T (λX). Pertanto è:
T
λ(X X) = λ(X T X). (8.13)
T
Poichè manifestamente risulta (X X) = (X T X), dalla (8.13) segue che
λ(X T X) = λ(X T X). (8.14)
Dalla (8.7) risulta X 6= 0 e per la (8.3) è X T X 6= 0. Ne segue che la (8.14) implica:
λ = λ. (8.15)
Pertanto, l’autovalore λ di L coincide con il suo coniugato λ ed è quindi reale.

8.2 Endomorfismi simmetrici.


Nel seguito denoteremo con Vn uno spazio vettoriale VnIR di dimensione finita n costruito sul campo reale e
nel quale sia stato introdotto un prodotto scalare definito positivo σ.
Diremo che l’endomorfismo L : Vn −→ Vn è simmetrico se verifica la:
∀v, w ∈ Vn , σ(v, L(w)) = σ(L(v), w), (8.16)
ovvero se L = L∗ .
Proviamo ora che:
Proposizione 110 Sia L : Vn −→ Vn un endomorfismo di Vn . Se B è una base ortonormale (rispetto al
prodotto scalare σ) di Vn , allora L è simmetrico se, e solo se, per la matrice A = AB
L,B risulta:

A = AT . (8.17)
n
Dimostrazione Siano X ed Y le colonne delle coordinate dei vettori v e w di V valutate rispetto a B.
Poichè B è ortonormale, il prodotto scalare di v e w è:
σ(v, w) = X T Y. (8.18)
Inoltre la colonna delle coordinate di L(w) è la AY e risulta:
σ(v, L(w)) = X T (AY ). (8.19)
Analogamente, risulta:
σ(L(v), w) = (AX)T Y = X T AT Y. (8.20)
L è simmetrico se, e solo se, verifica la (8.16), la quale, in forza delle (8.19) e (8.20), equivale alla:
∀X T , Y T ∈ IRn , X T (AY ) = X T AT Y. (8.21)
T
La (8.21) è verificata se, e solo se, A = A , onde l’asserto.
Dalla proposizione precedente segue che la matrice associata ad un endomorfismo simmetrico di Vn è
simmetrica rispetto ad ogni base ortonormale (rispetto al prodotto scalare definito positivo σ) di Vn .
Proviamo anche che:
8.2. ENDOMORFISMI SIMMETRICI. 67

0
Proposizione 111 Siano B e B0 due basi ortonormali (per il prodotto scalare σ) di Vn . Sia poi C = AB id,B
la matrice associata all’identità, quando si passa dalla base B0 alla B. Se L : Vn −→ Vn è un endomorfismo
B0
simmetrico di Vn , posto A = AB L,B e B = AL,B0 , allora necessariamente risulta:

B = C T AC. (8.22)

Dimostrazione È: 0 0
AB B B B
L,B0 = Aid,B0 AL,B Aid,B . (8.23)
Inoltre risulta 0
AB B
id,B0 = (Aid,B )
−1
= C −1 ; (8.24)
0
poichè B e B sono due basi ortonormali è (cfr. prop. 104):

C −1 = C T . (8.25)

Pertanto, dalla (8.23) segue l’asserto.


Proviamo ora che:

Proposizione 112 Ogni endomorfismo simmetrico L : Vn −→ Vn di Vn ammette n autovalori, quando


ciascuno di essi sia contato con la propria molteplicità (algebrica). Pertanto, L ammette autovettori.

Dimostrazione Sia B una base ortonormale di Vn . In forza della prop. 110, la matrice A = AB L,B risulta
simmetrica. Il suo polinomio caratteristico è det(A − λI), e quindi gli autovalori di L sono tutte e sole le
soluzioni reali di (8.5). Dalla prop. 109 segue che ogni soluzione di (8.5) è reale. Pertanto la (8.5) ammette
n soluzioni reali, quando ciascuna di esse sia contata con la propria molteplicità, onde l’asserto.

Proposizione 113 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Se λ1 e λ2 sono due autovalori


distinti di L, siano v1 e v2 due autovettori ad essi relativi (rispettivamente). Allora necessariamente risulta:

σ(v1 , v2 ) = 0, cioè v1 ⊥σ v2 . (8.26)

Dimostrazione Sia B una base ortonormale di Vn . Se A = AB T


L,B , allora A = A . Siano X ed Y le
colonne delle coordinate di v1 e v2 , valutate rispetto a B. Allora, per la colonna delle coordinate AX di
L(v1 ) risulta:
AX = λ1 X. (8.27)
Analogamente, per la colonna delle coordinate AY di L(v2 ) risulta:

AY = λ2 Y. (8.28)

Pertanto, è:

σ(v1 , L(v2 )) = X T (λ2 Y ) = λ2 (X T Y ), (8.29)


T T
σ(L(v1 ), v2 ) = (λ1 X) Y = λ1 (X Y ). (8.30)

Poichè L è simmetrico è verificata la (8.16), la quale, tenuto conto di (8.29) e (8.30), implica:

λ2 (X T Y ) = λ1 (X T Y ), (8.31)

onde è:
(λ2 − λ1 )(X T Y ) = 0. (8.32)
Poichè è λ2 6= λ1 , risulta λ2 − λ1 6= 0, e dalla (8.32) si trae:

X T Y = 0, (8.33)

da cui segue:
σ(v1 , v2 ) = 0, (8.34)
che equivale alla (8.26), onde l’asserto.
La proposizione precedente equivale a dire che autovettori relativi ad autovalori distinti sono ortogonali
(rispetto al prodotto scalare definito positivo σ). Pertanto:

Proposizione 114 Se l’endomorfismo simmetrico L di Vn ammette n autovalori a due a due distinti, allora
ogni base B di Vn costituita da autovettori di L risulta ortogonale rispetto al prodotto scalare definito positivo
σ.
68 CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN

8.3 Diagonalizzazione degli endomorfismi simmetrici.


Per il caso in cui gli autovalori dell’endomorfismo simmetrico L di Vn non risultino a due a due distinti,
cominciamo con il provare che:

Proposizione 115 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Se v è un autovettore di L (certo


esistente, in forza della prop. 112) di autovalore relativo λ, sia W = hvi il sottospazio di Vn da esso generato.
Se w è un vettore ortogonale a v, cioè se w ∈ W⊥σ , allora necessariamente anche L(w) risulta ortogonale a
v. Equivalentemente:
σ(v, w) = 0 ⇐⇒ σ(v, L(w)) = 0. (8.35)

Dimostrazione Per la (8.16) risulta:

σ(v, L(w)) = σ(L(v), w). (8.36)

Poichè è v ∈ E(λ), risulta L(v) = λv, onde dalla (8.36) si trae:

σ(v, L(w)) = σ(λv, w) = λσ(v, w). (8.37)

Dalla (8.37), essendo σ(v, w) = 0, segue l’asserto.


Proviamo ora che:

Proposizione 116 Sia v un autovettore dell’endomorfismo simmetrico L di Vn . Posto W = hvi, risulta


individuato il sottospazio W⊥σ di Vn . Sia allora M : W⊥σ −→ W⊥σ , l’applicazione di W⊥σ in sé così
definita:
∀w ∈ W⊥σ , M(w) = L(w). (8.38)
Tale applicazione è un endomorfismo di W⊥σ che verifica la:

∀w, w0 ∈ W⊥σ , σ(w, M(w0 )) = σ(M(w), w0 ). (8.39)

Cioè, M è simmetrico. Inoltre, l’applicazione σ 0 : W⊥σ × W⊥σ −→ IR così definita:

σ 0 (v, w) = σ(v, w), (8.40)

è un prodotto scalare definito in W⊥σ che risulta definito positivo.

Dimostrazione Poichè (cfr. prop. 115) ogni vettore di W⊥σ viene mutato in un vettore ortogonale a v,
la M è un’applicazione di W⊥σ in sé. Poichè L è lineare, la M, che agisce come L sugli elementi di W⊥σ ,
risulta anch’essa lineare. La L verifica la (8.16) e quindi M verifica la (8.39), onde la prima parte dell’asserto.
Poichè σ 0 agisce sui vettori di W⊥σ come la σ, σ 0 è un prodotto scalare definito in W⊥σ che risulta definito
positivo, onde l’asserto.
Possiamo finalmente provare che:

Proposizione 117 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Allora necessariamente esiste


una base B0 = (w1 , w2 , ..., wn ) di Vn ortogonale, rispetto al prodotto scalare definito positivo σ, costituita da
autovettori di L.

Dimostrazione Procederemo per induzione rispetto alla dimensione d di Vn . Se d = 1, l’asserto è


conseguenza della prop. 112. Supponiamo ora vero l’asserto se d = n − 1 e proviamolo per d = n. Pertanto se

M : Vn−1 −→ Vn−1 , (8.41)

è un endomorfismo simmetrico dello spazio vettoriale reale Vn−1 di dimensione finita n − 1, nel quale è
introdotto un prodotto scalare definito positivo σ 0 , allora necessariamente esiste una base

B0 = (w1 , w2 , ..., wn−1 ) , (8.42)

di Vn−1 ortogonale, rispetto al prodotto scalare σ 0 , costituita da autovettori di M.


Sia wn un autovettore di L (certo esistente, in forza della prop. 112). Posto W = hwn i è individuato il
sottospazio W⊥σ di Vn . Dalla prop. 105 segue che W⊥σ ha dimensione finita n − 1. Dalla prop. 116 segue
che la (8.38) definisce un endomorfismo simmetrico

M : W⊥σ −→ W⊥σ , (8.43)


8.3. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI. 69

di W⊥σ . Per ipotesi induttiva (8.31) esiste una base

B0 = (w1 , w2 , ..., wn−1 ) , (8.44)

per W⊥σ , costituita da autovettori di M ed ortogonale rispetto al prodotto scalare σ 0 di W⊥σ definito in
(8.40).
Poichè (cfr. prop. 105) la somma di W e di W⊥σ è diretta, i vettori

w1 , w2 , ..., wn−1 , wn , (8.45)

sono indipendenti, onde B = (w1 , w2 , ..., wn ) è una base per Vn .


Poichè W⊥σ = hw1 , w2 , ..., wn−1 i, allora wn è ortogonale a ciascuno dei vettori di

B0 = (w1 , w2 , ..., wn−1 ) . (8.46)

Quindi, essendo B 0 costituita da vettori a due a due ortogonali, rispetto a σ 0 , che agisce come σ, la base
B = (w1 , w2 , ..., wn ) di Vn è ortogonale rispetto al prodotto scalare definito positivo σ.
Infine, wn è un autovettore di L. Poichè M agisce come L, ogni autovettore di M è un autovettore di
L e (w1 , w2 , ..., wn−1 ) è allora costituita da autovettori di L; pertanto, B è costituita da autovettori di L e
l’asserto è completamente provato.
Osserviamo esplicitamente che allora:

Proposizione 118 Sia L : Vn −→ Vn un endomorfismo simmetrico di Vn . Allora necessariamente esiste


una base B0 = (u1 , u2 , ..., un ) di Vn ortonormale, rispetto al prodotto scalare definito positivo σ, costituita da
autovettori di L.

Dimostrazione Dalla prop. precedente, esiste un base ortogonale B = (w1 , w2 , ..., wn ) di Vn ortogonale,
rispetto al prodotto scalare definito positivo σ, costituita da autovettori di L. Dividendo ciascun vettore di
B0 per il suo modulo si ottiene la base B = (u1 , u2 , ..., un ) di cui all’asserto.

Proposizione 119 Sia L : IRn −→ IRn un endomorfismo simmetrico di IRn . Allora necessariamente esiste
una base B = (u1 , u2 , ..., un ) di IRn ortonormale, rispetto all’ordinario prodotto scalare di IRn , costituita da
autovettori di L.

Dimostrazione Poichè l’ordinario prodotto scalare di IRn è definito positivo, dalla prop. precedente,
segue l’asserto.
70 CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN
Capitolo 9

ANCORA SUI PRODOTTI


SCALARI REALI

9.1 Premessa.
In IRn sia introdotto un prodotto scalare σ. Se N = (e1 , e2 , ...en ) è la base naturale di tale spazio è allora
individuata la matrice A associata a σ (valutata rispetto ad N ). Se v e w sono vettori di IRn di colonne di
coordinate X e Y (rispettivamente), valutate rispetto ad N , allora risulta:

σ (v, w) = X T AY. (9.1)

Se A è diagonale, cioè se è del tipo:


⎛ ⎞
λ1 0 ··· 0
⎜ 0 λ2 ··· 0 ⎟
⎜ ⎟
A=⎜ .. .. .. .. ⎟, (9.2)
⎝ . . . . ⎠
0 0 ··· λn

allora, posto X T = (x1 , x2 , ...xn ) e Y T = (y1 , y2 , ...yn ) è:


n
X
σ (v, w) = λi xi yi . (9.3)
i=1

Evidentemente, allora, per il quadrato scalare di v, risulta:


n
X
σ (v, v) = λi x2i . (9.4)
i=1

Evidentemente, allora, il secondo membro della (9.4) è sempre positivo se, e solo se, risulta:

λi > 0 i = 1, 2, ..., n. (9.5)

Inoltre è facile vedere che se la matrice A, (valutata rispetto alla base N ) è diagonale, cioè della forma (9.2),
allora risulta:
σ è definito positivo ⇐⇒ λi > 0 i = 1, 2, ..., n. (9.6)
Consideriamo ora una situazione più generale. Sia introdotto all’uopo in IRn un prodotto scalare σ. Se
N è la base naturale di IRn , sia A la matrice associata a σ (valutata rispetto alla base N ). Evidentemente è
(cfr. 90):
A = AT . (9.7)
n n n
Sia ora L = LN A,N : IR −→ IR l’endomorfismo di IR associato alla matrice A quando sia fissata la base
naturale N .
Poichè A è simmetrica, esiste una base B = (v1 , v2 , ...vn ) ortonormale, rispetto al prodotto scalare standard
di IRn costituita da autovettori di A. Posto:

M = AN
id,B , (9.8)

71
72 CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI

la forma diagonale di A è data da:


B = M −1 AM. (9.9)
Osserviamo esplicitamente che la matrice (9.8) (poichè sia la base B che la base N sono basi ortonormali
rispetto al prodotto scalare standard di IRn ) è una matrice ortogonale, cioè tale che:

M −1 = M T . (9.10)

Dalle (9.9) e (9.10) segue:


B = M T AM. (9.11)
Troviamo ora la matrice associata al prodotto scalare σ, valutata rispetto alla base B.
Poichè A è la matrice associata a σ, quando in IRn si è fissata la base N , dette X ed Y le colonne delle
coordinate dei vettori v e w (rispettivamente) risulta:

σ (v, w) = X T AY. (9.12)

Per le colonne delle coordinate X 0 ed Y 0 di v e w (rispettivamente), valutate rispetto a B, risulta (cfr. 9.8):
(
X 0 = AN
id,B X = M
−1
X
, (9.13)
Y 0 = AN
id,B Y = M
−1
Y

allora è: ½
X = M X0
. (9.14)
Y = MY 0
Sostituendo la (9.14) nella (9.12) si ha:
T ¡ ¢
σ (v, w) = (M X 0 ) A (M Y 0 ) = X 0T M T AM Y 0 . (9.15)

Dalla (9.15) segue che la matrice associata a σ, rispetto alla base B è la M T AM , cioè (cfr. 9.11) la matrice
B, cioè la forma diagonale di A. Da quanto detto posto:
⎛ ⎞
λ1 0 · · · 0
⎜ 0 λ2 · · · 0 ⎟
⎜ ⎟
B=⎜ . .. .. .. ⎟ , (9.16)
⎝ .. . . . ⎠
0 0 · · · λn

T T
risulta (cfr. (9.15) e denotato con X 0 = (x01 , x02 , ...x0n ) ed Y 0 = (y10 , y20 , ...yn0 ) ):
n
X
σ (v, w) = λi x0i yi0 . (9.17)
i=1

Evidentemente allora è:
n
X 2
σ (v, v) = λi (x0i ) . (9.18)
i=1

È immediato allora verificare che:

Proposizione 120 Sia A la matrice simmetrica diagonale definita in (9.2), associata al prodotto scalare σ
di IRn (valutata rispetto alla base naturale N ). Allora necessariamente risulta:

σ è definito positivo ⇐⇒ λi > 0 i = 1, 2, ..., n. (9.19)

9.2 Criterio di Sylvester.


In questa sezione illustreremo un criterio, dovuto a Sylvester, per determinare l’eventuale natura definita
positiva di un prodotto scalare definito in uno spazio vettoriale VnIR costruito sul campo reale IR.
Premettiamo la:
9.2. CRITERIO DI SYLVESTER. 73

Proposizione 121 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n,
costruito sul campo reale IR. Se

B = (v1 , v2 , ...vn ) , B0 = (w1 , w2 , ...wn ) , (9.20)

sono due basi per V, siano A ed A0 le matrici associate a σ (rispetto a B e B0 ). Allora necessariamente risulta:

det(A) > 0 ⇐⇒ det(A0 ) > 0. (9.21)

Dimostrazione Siano v e w vettori di V. Denotiamo con Xv ed Yw le colonne delle coordinate di v e


w, valutate rispetto a B. Siano poi Xv0 ed Yw0 le colonne delle coordinate di v e w, valutate rispetto a B0 .
0
Posto M = AB id,B , allora risulta: (
Xv = M Xv0
. (9.22)
Yw = M Yw0
Inoltre evidentemente è:
T
σ (v, w) = XvT AYw = (Xv0 ) A0 Yw0 . (9.23)
Sostituendo la (9.22) nel secondo membro della (9.23), si trae:
T T
σ (v, w) = (M Xv0 ) A (M Yw0 ) = (Xv0 ) A0 Yw0 , (9.24)

dalla quale subito segue:


¡ ¢ T
Xv0T M T AM Yw0 = (Xv0 ) A0 Yw0 . (9.25)
La (9.25) è verificata quali che siano le colonne edXv0onde è: Yw0 ,
¡ T ¢
M AM = A0 . (9.26)

Dalla (9.26) segue (in forza del teorema di Binet, eq. (A.89) in Appendice A):

det(M T AM ) = det(M T ) det(A) det(M ) = det(A0 ). (9.27)

Dalla (A.87) in Appendice A si deduce (poichè det(M T ) = det(M )):

det(A0 ) = det(A) (det(M ))2 , (9.28)

da cui subito, essendo det(M ) 6= 0, segue l’asserto.


Sia A = (aij ) , i, j = 1, 2, ..., n, una matrice quadrata d’ordine n ad elementi reali. Sia poi Ai , i = 1, 2, ..., n
la matrice che si estrae da A considerando le prime i righe e le prime i colonne, cioè tale che:
⎛ ⎞
a11 a12 · · · a1i
⎜ a21 a22 · · · a2i ⎟
⎜ ⎟
Ai = ⎜ . .. .. .. ⎟ . (9.29)
⎝ .. . . . ⎠
ai1 ai2 ··· aii
I determinanti di tali n matrici sono detti primi minori principali.
Proviamo ora che:

Proposizione 122 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n,
costruito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V, sia A la matrice associata a σ valutata
rispetto a B. Se σ è definito positivo, necessariamente risultano positivi tutti gli n primi minori principali di
A.

Dimostrazione Consideriamo il sottospazio Wi di V generato dai vettori v1 , v2 , ...vi di Bi ; evidentemente


è:
Wi = hv1 , v2 , ...vi i . (9.30)
0
Poichè σ è definito positivo, esso induce su Wi un prodotto scalare σ definito positivo; la matrice di tale
prodotto scalare σ 0 (valutata rispetto alla base Bi (v1 , v2 , ...vi ) di Wi ) è evidentemente:
⎛ ⎞
a11 a12 · · · a1i
⎜ a21 a22 · · · a2i ⎟
⎜ ⎟
Ai = ⎜ . .. .. .. ⎟ , (9.31)
⎝ .. . . . ⎠
ai1 ai2 ··· aii
74 CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI

essendo la matrice dei prodotti scalari degli elementi di Bi .


Poichè σ è definito positivo tale risulta σ 0 . Inoltre (cfr. prop. 120) gli autovalori λ1 , λ2 , ...λi di Ai sono
tutti positivi. Infine il determinante di Ai è uguale al prodotto dei suoi autovalori, cioè
i
Y
det (Ai ) = λj > 0. (9.32)
j=1

Al fine di invertire l’enunciato della proposizione precedente, proviamo ora che:

Proposizione 123 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n costru-
ito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V sia A la matrice associata a σ valutata rispetto a
B. Se il determinante di A è diverso da zero allora necessariamente il prodotto scalare σ risulta non degenere.
Pertanto, in forza della prop. 106 per il sottospazio ortogonale W⊥σ ad un sottospazio W di V, risulta:

dim(W) + dim(W⊥σ ) = n. (9.33)

Dimostrazione Sia v ∈ V un vettore di V ortogonale ad ogni vettore w di V. Dette Xv ed Yw le


coordinate di v e w (valutate rispetto a B) allora necessariamente risulta:

w 6= 0 =⇒Yw 6= 0. (9.34)

Inoltre è:
∀w ∈V v ⊥ w =⇒ σ (v, w) = 0 =⇒ XvT AYw = 0 ∀Yw ∈ IRn . (9.35)
Se Yw 6= 0, essendo det(A) 6= 0, risulta AYw = Z 6= 0 (poichè il sistema omogeneo AYw = 0 non ammette
autosoluzioni); dalla (9.35) segue allora:

∀w ∈V w ⊥ v =⇒ XvT Z = 0. (9.36)

Ciò accade anche quando Z è la colonna delle coordinate di vi (i = 1, 2, ..., n); ne segue che le coordinate di
v sono tutte nulle e quindi che:
v⊥w ∀w ∈V =⇒ v = 0. (9.37)

Proviamo finalmente che:

Proposizione 124 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n costru-
ito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V sia A la matrice associata a σ valutata rispetto
a B. Allora, σ è definito positivo se, e solo se, risultano tutti positivi gli n primi minori principali di A.

Dimostrazione Dalla prop. 122 segue che se σ è definito positivo allora sono tutti positivi gli n minori
principali di A. Proviamo il viceversa e, a tal fine, procediamo per induzione sulla dimensione t dello spazio.
Se t = 1 la matrice A si riduce ad un elemento, positivo, che è il quadrato scalare di v1 . In tal caso
l’asserto è ovvio.
Sia ora vero l’asserto nel caso t = n − 1. Vogliamo provare che, per t = n esso è ancora vero.
Sia all’uopo W = hv1 , v2 , ...vn−1 i il sottospazio (n − 1)-dimensionale di V generato dai primi n − 1 vettori
di B. La matrice che rappresenta σ su W (valutata rispetto alla base (v1 , v2 , ...vn−1 )) è:
⎛ ⎞
a11 a12 ··· a1(n−1)
⎜ a21 a22 ··· a2(n−1) ⎟
⎜ ⎟
An−1 = ⎜ .. .. .. .. ⎟. (9.38)
⎝ . . . . ⎠
a(n−1)1 a(n−1)2 ··· a(n−1)(n−1)

Poichè sono positivi per ipotesi i primi n minori principali di A, risultano positivi i primi (n − 1) minori
principali di An−1 . Per ipotesi induttiva, il prodotto σ è definito positivo su W. Ne segue che esistono (n − 1)
vettori u1 , u2 , ...un−1 formanti una base ortonormale, rispetto a σ, del sottospazio W. Allora è:

W = hu1 , u2 , ..., un−1 i . (9.39)

Poichè det(A) > 0 (A = An ), il prodotto scalare σ non è degenere e (cfr. prop. 123) per il sottospazio W⊥σ
ortogonale a W, risulta:
dim (W⊥σ ) = 1. (9.40)
9.2. CRITERIO DI SYLVESTER. 75

Sia quindi w un vettore (non nullo) di V tale che:

W⊥σ = hwi w 6= 0. (9.41)

Proviamo esplicitamente che:

u1 , u2 , ..., un−1 , w sono linearmente indipendenti. (9.42)

A tal fine, procediamo per assurdo e supponiamo che così non sia; in tal caso, essendo u1 , u2 , ...un−1
indipendenti, deve necessariamente risultare che ∃ (y1 , y1 , ...yn−1 ) ∈ IRn−1 tali che:
n−1
X
w= yi ui (9.43)
i=1

Allora risulta: ⎛ ⎞
n−1
X
σ (w, ui ) = σ ⎝ yj uj , ui ⎠ i = 1, 2, ..., n − 1. (9.44)
j=1

Poichè σ è un prodotto scalare è:


⎛ ⎞
n−1
X n−1
X
σ⎝ yj uj , ui ⎠ = yj σ (uj , ui ) . (9.45)
j=1 j=1

Ma (u1 , u2 , ..., un−1 ) è una base ortonormale di W ed risulta:

σ (uj , ui ) = δ ij . (9.46)

Dalle (9.44) (9.45) e (9.46) segue:

σ (w, ui ) = yi i = 1, 2, ..., n − 1. (9.47)

Dalle (9.41) e (9.47) segue:


0 = σ (w, ui ) = yi i = 1, 2, ..., n − 1. (9.48)
Pertanto w è il vettore nullo. Ciò contraddice il fatto che w 6= 0.
Da quanto visto segue la (9.42). I vettori indipendenti

u1 , u2 , ...un−1 , w, (9.49)

costituiscono una base B0 = (u1 , u2 , ...un−1 , w) per V.


La matrice A0 associata a σ, valutata rispetto a B 0 , è diagonale (perchè ui ⊥ uj e w ⊥ ui ) per i, j =
1, 2, ..., n − 1 e più precisamente risulta:
⎛ ⎞
1 0 ··· 0 0
⎜ 0 1 ··· 0 0 ⎟
⎜ ⎟
0 ⎜ .. .. . . .
. .
. ⎟
A =⎜ . . . . . ⎟. (9.50)
⎜ ⎟
⎝ 0 0 ··· 1 0 ⎠
0 0 · · · 0 σ (w, w)

Dalla prop. 121 segue che essendo det(A) > 0 (per ipotesi det(A) > 0) risulta:

det(A0 ) > 0. (9.51)

Ma è det(A0 ) = σ (w, w). Pertanto σ è definito positivo e ne segue che i vettori


à !
w
u1 , u2 , ...un−1 , p , (9.52)
σ (w, w)

formano una base per V, ortonormale rispetto a σ.


76 CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI
Capitolo 10

TENSORI ED ALGEBRA
TENSORIALE

10.1 Premessa.
Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK. Denoteremo la totalità delle applicazioni
lineari dello spazio vettoriale VIK nello spazio WIK con il simbolo Hom(VIK , WIK ) e la diremo insieme degli
omomorfismi di V in W.
Se L : VIK −→ WIK ed M : VIK −→ WIK sono applicazioni lineari di V in W, è allora individuata
l’applicazione [L + M] : VIK −→ WIK che diremo somma di L ed M, definita nel modo che segue:

∀v ∈ V [L + M](v) = L(v) + M(v). (10.1)

È immediato verificare che l’applicazione [L + M] : VIK −→ WIK risulta lineare. Pertanto, la somma di
elementi di Hom(VIK , WIK ) è un elemento di Hom(VIK , WIK ).
Siano ora k un elemento del campo IK ed L un elemento di Hom(VIK , WIK ). È allora possibile definire
l’applicazione [kL] : VIK −→ WIK nel modo seguente:

∀v ∈ V, ∀k ∈ IK [kL](v) = kL(v). (10.2)

È semplice verificare che l’applicazione [kL] : VIK −→ WIK risulta lineare. Pertanto, il prodotto di un
elemento del campo IK per un elemento di Hom(VIK , WIK ) è un elemento di Hom(VIK , WIK ). Il lettore potrà
facilmente provare, inoltre, che:

Proposizione 125 Se VIK e WIK sono due spazi vettoriali costruiti sul medesimo campo IK, la coppia
(Hom(VIK , WIK ), +), ove la somma di elementi di Hom(VIK , WIK ) è definita come in (10.1) è un grup-
po abeliano. Inoltre, la terna (Hom(VIK , WIK ), IK, ·), ove il prodotto di uno scalare per un elemento di
Hom(VIK , WIK ) è come definita in (10.2) è uno spazio vettoriale costruito sul campo IK.

Proviamo ora che:

Proposizione 126 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK, di dimensioni finite
n ed m (rispettivamente). Sia quindi (Hom(VIK , WIK ), IK, ·) lo spazio vettoriale degli omomorfismi di V in
W. Se sono fissate una base B per V ed una base B0 per W, ad ogni applicazione L di Hom(VIK , WIK ) risulta
associata (cfr. 46) la matrice AB
L,B0 . L’applicazione χ : Hom(VIK , WIK ) −→ M(m × n, IK) che associa ad ogni
elemento L di Hom(VIK , WIK ) la matrice AB L,B0 è un isomorfismo tra Hom(VIK , WIK ) ed M(m × n, IK).

Dimostrazione Proviamo che χ è lineare. Siano, all’uopo L, M ∈ Hom(VIK , WIK ). Se risulta:

χ(L) = AB B
L,B0 , χ(M) = AM,B0 , (10.3)

dalla (10.1) subito segue che:


AB B B
L+M,B0 = AL,B0 + AM,B0 . (10.4)
Pertanto, risulta:
χ(L + M) = χ(L) + χ(M). (10.5)

77
78 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

Inoltre, se k ∈ IK, dalle (10.2) e (10.3) segue:

χ(kL) = AB B
kL,B0 = kAL,B0 = kχ(L). (10.6)

Dalle (10.5) e (10.6) segue la linearità di χ.


Proviamo ora che χ è suriettiva: se B ∈ M(m × n, IK), segue che è individuata l’applicazione lineare

L = LB
B,B0 : VIK −→ WIK ,

associata alla matrice B, quando sono fissate per V e W le basi B e B0 (rispettivamente). Dalla prop. 49 segue
allora che χ(L) = B, onde χ è suriettiva.
Proviamo infine che ker χ si riduce al vettore nullo di Hom(VIK , WIK ). Sia a tal fine L ∈ ker χ; allora è
χ(L) è uguale alla matrice tutta nulla 0 di M(m × n, IK). Pertanto l’immagine in L di un qualunque vettore
v di V ha la colonna delle coordinate, valutate rispetto a B0 , tutta nulla ed è quindi il vettore nullo di W.
L’applicazione L è allora l’applicazione costante nulla di V in W. Poichè l’applicazione costante nulla di V in
W è il vettore nullo dello spazio Hom(VIK , WIK ), risulta che il nucleo di χ è nullo. Per quanto detto, la χ è
un isomorfismo di Hom(VIK , WIK ) in M(m × n, IK), onde l’asserto.
Dalla proposizione precedente segue che se VnIK e Wm IK sono due spazi vettoriali costruiti sul medesimo
campo IK, di dimensioni finite n ed m (rispettivamente), allora lo spazio vettoriale Hom(VIK , WIK ) degli
omomorfismi di V in W risulta isomorfo allo spazio M(m × n, IK). Pertanto la dimensione di Hom(VIK , WIK )
è uguale a quella di M(m × n, IK). Ne segue che la dimensione di Hom(VIK , WIK ) è uguale al prodotto di m
per n.

10.2 Spazio duale.


Sia ora VIK uno spazio vettoriale costruito sul campo IK. Sia poi IK1 lo spazio vettoriale delle 1-ple di elementi
del campo. Diremo spazio duale di V lo spazio vettoriale Hom(VIK , IK1 ). Denoteremo con V∗IK lo spazio
duale di VIK . Da quanto detto segue che lo spazio duale di uno spazio vettoriale V è lo spazio delle applicazioni
lineari di V nel campo IK su cui esso è costruito (interpretato come spazio vettoriale unidimensionale costruito
su se stesso).
Dalla proposizione 126 segue che, se VnIK è uno spazio vettoriale di dimensione finita n, costruito sul campo
IK, allora anche la dimensione del suo duale V∗IK risulta finita ed uguale ad n. Osserviamo esplicitamente che,
in questo caso, sia V che il suo duale V∗ , risultano isomorfi a IKn (modello universale per gli spazi vettoriali
di dimensione finita n costruiti sul campo IK).
Sia quindi VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Sia poi B = (v1 , v2 , ..., vn )
una base per V. Se v è un vettore di V, risulta univocamente determinata la n-pla (x1 , x2 , ..., xn ) delle sue
coordinate, valutate rispetto a B. Denoteremo con vi : VnIK −→ IK l’applicazione di V in IK, che associa ad
ogni vettore di V la sua i-ma coordinata, valutata rispetto a B. L’applicazione vi è manifestamente lineare e
la diremo i-ma proiezione (rispetto alla base B di V) di V in IK.
Pertanto, le n proiezioni v1 , ..., vn di V in IK, appartengono a V∗ . Al riguardo proviamo ora che:

Proposizione 127 Siano VnIK uno spazio vettoriale di dimensione finita n, costruito sul campo IK e

B = (v1 , v2 , ..., vn ) ,

una base per esso. Allora le n proiezioni v1 , ..., vn costituiscono una base B ∗ per lo spazio duale V∗ dello
spazio V.

Dimostrazione Poiché V è di dimensione finita n, la dimensione di V∗ è uguale ad n. Per provare l’asserto,


sarà quindi sufficiente provare che v1 , ..., vn siano linearmente indipendenti in V∗ . All’uopo, consideriamo una
loro combinazione lineare a coefficienti y1 , y2 , ..., yn (rispettivamente) di IK e supponiamo che sia:
n
X
yj vj = 0∗ , (10.7)
j=1

ove 0∗ è il vettore nullo di V∗ , cioè l’applicazione costante nulla di V in IK. Allora, necessariamente, risulta:
⎡ ⎤
Xn
∀v ∈ V ⎣ yj vj ⎦ (v) = 0∗ (v) = 0. (10.8)
j=1
10.3. CAMBIAMENTI DI BASE IN V∗ . 79

In particolare, per i vettori di B, risulta:


⎡ ⎤
X n
⎣ yj vj ⎦ (vi ) = 0∗ (vi ) = 0 i = 1, ..., n. (10.9)
j=1

Dalla definizione di somma di elementi di V∗ e dalla definizione di prodotto di uno scalare per un elemento
di V∗ , la (10.9) implica la:
X n
yj vj (vi ) = 0 i = 1, ..., n. (10.10)
j=1

D’altra parte è:
vj (vi ) = δ ji ; i, j = 1, ..., n, (10.11)
ove δ ji
è il delta di Kronöeker che assume il valore 1 se, e solo se, j = i ed, altrimenti, vale zero. Pertanto,
sostituendo nella (10.10), per ogni j = 1, ..., n, il valore di vj (vi ) fornito dalla (10.11), risulta:

yi = 0 i = 1, ..., n. (10.12)
Da quanto detto segue che la (10.7) implica la (10.12); pertanto i vettori v1 , ..., vn sono indipendenti, onde
l’asserto. ¡ ¢
La base B∗ = v1 , ..., vn dello spazio V∗ , di cui all’enunciato della proposizione precedente, è detta base
duale della base B di V. Diremo covettori gli elementi dello spazio duale.

10.3 Cambiamenti di base in V∗ .


¡ ¢T ¡ ¢T
Siano B = v1 v2 · · · vn e Be = ve1 v
e2 · · · en
v due basi dello stesso spazio vettoriale VnIK di
dimensione finita n costruito sul campo IK.
Se v è un vettore di V siano:
¡ ¢ ¡ ¢
X = x1 x2 · · · xn ed Y = y1 y2 ··· yn , (10.13)

le righe delle coordinate di v, valutate rispetto a B ed a Be (rispettivamente), onde è:


⎛ ⎞ ⎛ ⎞
v1 e1
v
⎜ v2 ⎟ ⎜v e ⎟
⎜ ⎟ ⎜ 2⎟
v = X ⎜ . ⎟ = Y ⎜ . ⎟. (10.14)
⎝ .. ⎠ ⎝ .. ⎠
vn en
v
Dalla prop 53, segue che, posto:
A = AB h,
id,B
(10.15)
risulta:
Y T = AX T (10.16)
Ricordiamo che (cfr. proposizione 47) la j-esima colonna della matrice A è (j = 1, 2, ..., n) la colonna delle
e
coordinate del vettore vj , valutate rispetto a B.
Analogamente, posto:
h
B = AB
id,B , (10.17)
risulta:
X T = BY T , (10.18)
ed è dunque:
B = A−1 . (10.19)
Inoltre, la i-esima colonna di B è (i = 1, 2, ..., n) la colonna delle coordinate del vettore vei , valutate rispetto
a B. Pertanto, la matrice B T , trasposta della B, ha quale i-esima riga (i = 1, 2, ..., n) la riga delle coordinate
ei , valutate rispetto a B. Ne segue che:
di v
⎛ ⎞ ⎛ ⎞
e1
v v1
⎜v e ⎟ ⎜ v2 ⎟
⎜ ⎟ 2 ⎜ ⎟
⎜ .. ⎟ = B T ⎜ .. ⎟ . (10.20)
⎝ . ⎠ ⎝ . ⎠
en
v vn
80 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
¡ ¢ ¡ 1 ¢
Siano ora B∗ = v1 v2 · · · vn e Be∗ = v e v e2 · · · v e n due basi dello spazio V∗ (duale di V) duali
e rispettivamente.
di B e B,
e risulta:
e i è la i-esima proiezione di V in IK (rispetto a B),
Se v ∈V dalla (10.13) e poichè v

e i (v) = y i
v i = 1, 2, ..., n. (10.21)
¡ i¢
Dalle (10.16) segue che, posto A = aj , i = 1, 2, ..., n, j = 1, 2, ..., n:
n
X
yi = aij xj i = 1, 2, ..., n. (10.22)
j=1

Inoltre risulta:
xj = vj (v) j = 1, 2, ..., n. (10.23)
Dalle (10.21) (10.22) e (10.23) segue:
n
X n
X
e i (v) = y i =
v aij xj = aij vj (v). (10.24)
j=1 j=1

La (10.24) sussiste per ogni scelta del vettore v ∈V. Risulta allora:
n
X
ei =
v aij vj , (10.25)
j=1

cioè: ¡ 1 ¢ ¡ ¢
e
v e2
v ··· e n = v1
v v2 ··· vn AT . (10.26)
Osserviamo esplicitamente che nella (10.20) e nella (10.26) intervengono due matrici quadrate che sono
l’una l’inversa dell’altra.

10.4 Spazio biduale.


Sia VIK uno spazio vettoriale costruito nel campo IK. È allora possibile costruire lo spazio V∗∗ duale di V∗ ,
che diremo biduale di V. Esso è costituito da tutte e sole le applicazioni lineari di V∗ in IK.
Sia ora v ∈V. È possibile costruire in corrispondenza di v, un elemento v∗∗ di V∗∗ che diremo elemento
biduale di v ∈V. A tal fine, porremo:

v∗∗ (v∗ ) = v∗ (v) ∀v∗ ∈ V∗ . (10.27)

Proviamo al riguardo che:

Proposizione 128 L’applicazione v∗∗ : V∗ −→ IK definita in (10.27) è un elemento di V∗∗ .

Dimostrazione È sufficiente provare la linearità di v∗∗ . Siano all’uopo, v∗ e v0∗ due elementi di V∗ ;
risulta allora (dalla (10.27)):
v∗∗ (v∗ + v0∗ ) = [v∗ + v0∗ ] (v) . (10.28)
Dalla definizione di somma in V∗ , segue:

[v∗ + v0∗ ] (v) = v∗ (v) + v0∗ (v) . (10.29)

Dalla (10.27) segue poi:

v∗ (v) = v∗∗ (v∗ ) , (10.30)


v0∗ (v) = v∗∗ (v0∗ ) .

Per le (10.28), (10.29) e (10.30) risulta:

v∗∗ (v∗ + v0∗ ) = v∗∗ (v∗ ) + v∗∗ (v0∗ ) . (10.31)

Dall’arbitrarietà della scelta di v∗ e v0∗ in V∗ e dalla (10.31) segue che v∗∗ conserva la somma in v∗ .
10.4. SPAZIO BIDUALE. 81

Proviamo ora che v∗∗ conserva il prodotto di uno scalare per un vettore. All’uopo, siano k ∈ IK e v∗ ∈V∗ ,
evidentemente dalla (10.27) segue che:
v∗∗ (kv∗ ) = [kv∗ ] (v) . (10.32)
Dalla definizione di prodotto di uno scalare per un vettore in V∗ , segue:

[kv∗ ] (v) = k [v∗ (v)] . (10.33)

Dalla (10.27) risulta:


k [v∗ (v)] = k [v∗∗ (v∗ )] . (10.34)
Dalle (10.32), (10.33) e (10.34) segue che:

v∗∗ (kv∗ ) = k [v∗∗ (v∗ )] . (10.35)

Dalle (10.31) e (10.35), per l’arbitrarietà della scelta dello scalare k e dei vettori v∗ e v0∗ che in esse compaiono,
segue la linearità di v∗∗ , cioè l’asserto
Consideriamo ora l’applicazione β : V −→ V∗∗ che associa ad ogni elemento v ∈V l’elemento v∗∗ ∈ V∗∗ di
cui alla proposizione precedente. Al riguardo, proviamo che:

Proposizione 129 L’applicazione β : V −→ V∗∗ è un’applicazione lineare di V nel suo biduale.

Dimostrazione Evidentemente è (cfr. prop. precedente):

β (v) = v∗∗ . (10.36)

Cominciamo con il provare che:

β (v + v0 ) = β (v) + β (v0 ) ∀v, v0 ∈ V. (10.37)

cioè che:
∗∗
(v + v0 ) = v∗∗ + v0∗∗ ∀v, v0 ∈ V. (10.38)
Per la (10.38) è sufficiente mostrare che:
∗∗
(v + v0 ) (v∗ ) = [v∗∗ + v0∗∗ ] (v∗ ) ∀v∗ ∈ V∗ . (10.39)

Il primo membro della (10.39) risulta (per la (10.27) e per la linearità di v∗ ):


∗∗ ∗
(v + v0 ) (v∗ ) = (v + v0 ) (v) = v∗ (v) +v0∗ (v) . (10.40)

Dalla (10.27) segue poi:

v∗ (v) = v∗∗ (v∗ ) , (10.41)


v0∗ (v) = v0∗∗ (v∗ ) .

Dalla definizione di somma in V∗∗ si ha infine:

v∗∗ (v∗ ) + v0∗∗ (v∗ ) = [v∗∗ + v0∗∗ ] (v∗ ) . (10.42)

Dalle (10.40), (10.41) e (10.42) segue la (10.39) cioè la (10.38) e quindi la (10.37).
Proviamo ora che:
β (hv) = hβ (v) ∀v ∈ V, ∀h ∈ IK, (10.43)
cioè che:
(hv∗∗ ) (v∗ ) = [hv∗∗ (v∗ )] ∀v∗ ∈ V∗ . (10.44)
Per il primo membro della (10.44) risulta (per la (10.27) e per la linearità di v∗ ):

(hv∗∗ ) (v∗ ) = (hv∗ ) (v) = hv∗ (v) . (10.45)

Dalla (10.27) segue poi:


v∗ (v) = v∗∗ (v∗ ) . (10.46)
∗∗
Dalla definizione di prodotto per uno scalare in V si ha infine::

hv∗∗ (v∗ ) = [hv∗∗ (v∗ )] . (10.47)

Dalle (10.45), (10.46) e (10.47) segue la (10.43), onde l’asserto.


82 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

10.5 Isomorfismo canonico tra VnIK ed il suo biduale.


Supponiamo ora che VnIK sia di dimensione finita n. Per quanto visto in (126) lo spazio V∗ è anch’esso di
dimensione finita n. Pertanto, il biduale V∗∗ (duale di V∗ ) è di dimensione finita n. A tal riguardo possiamo
provare che:

Proposizione 130 L’applicazione β : VnIK −→ V∗∗ di cui alla proposizione precedente è un isomorfismo tra
gli spazi n dimensionali V e V∗∗ . Tale isomorfismo è detto canonico nel senso che è indipendente dalla scelta
di particolari basi.

Dimostrazione Osserviamo che v ∈ ker β se, e solo se, v∗∗ è il vettore nullo di V∗∗ ; ciò accade se, e solo
se, v∗∗ (v∗ ) = 0V∗ (∀v∗ ∈ V∗ ); ciò accade se, e solo se, v∗ (v) = 0V (∀v∗ ∈ V∗ ). Ne segue che v ∈ ker β se, e
solo se, ogni elemento di V∗ contiene v nel suo nucleo. Ciò equivale a dire che:

v ∈ ker β ⇐⇒ v ∈ ker v∗ ∀v∗ ∈ V∗ . (10.48)

Dalla (10.48) subito segue che:


v ∈ ker β ⇐⇒ v = 0V . (10.49)
Ne segue che ker β ha dimensione nulla e, dalla prop. 39 che :

Im β = V∗∗ . (10.50)

Pertanto, β è un isomorfismo tra V ed il suo biduale.

10.6 Forme multilineari.


Siano V1 , V2 , ..., Vm m spazi vettoriali definiti sul medesimo campo IK. Sia poi V = V1 × V2 × ... × Vm il loro
prodotto cartesiano.
Se v = (v1 , v2 , ..., vm ) e w = (w1 , w2 , ..., wm ) sono due elementi di V definiamo la loro somma v + w nel
modo seguente:
(v + w)i = vi + wi i = 1, 2, ...n. (10.51)
È poi possibile definire il prodotto di uno scalare k ∈ IK per l’elemento v = (v1 , v2 , ..., vm ) di V nel modo
seguente:
kv = (kv1 , kv2 , ..., kvm ). (10.52)
È immediato verificare che con la definizione di somma di elementi di V data in (10.51) e la definizione
di prodotto di uno scalare per un elemento di V data in (10.52), V risulta strutturato a spazio vettoriale sul
campo IK.
Sia ora M : V −→ IK un’applicazione di V = V1 × V2 × ... × Vm in IK. Diremo che M è lineare sull’i-mo
fattore di V se, e solo se, comunque fissati due vettori w1 e w2 dello spazio Vi , comunque fissati due scalari
h1 ed h2 di IK e comunque fissato un vettore vj per ciascuno degli spazi Vj , diversi da Vi , risulta:

M (v1 , v2 , ...vi−1 , h1 w1 + h2 w2 , vi+1 , vi+2 , ..., vm ) =


= h1 M (v1 , v2 , ...vi−1 , w1 , vi+1 , vi+2 , ..., vm ) + (10.53)
+h2 M (v1 , v2 , ...vi−1 , w2 , vi+1 , vi+2 , ..., vm ) .

Se l’applicazione M : V −→ IK risulta lineare su tutti gli m fattori di V, diremo che M è una forma
multilineare.

10.7 Tensori ed algebra tensoriale.


In questo numero considereremo spazi vettoriali finito dimensionali. Spesso, nel seguito, faremo uso della
convenzione di Einstein secondo la quale si intende sottinteso di sommare rispetto ad ogni indice che
compaia una volta in alto e l’altra in basso. Ad esempio, secondo tale convenzione, scrivendo:

xi vi , (10.54)

intenderemo significare:
n
X
xi vi . (10.55)
i=1
10.7. TENSORI ED ALGEBRA TENSORIALE. 83

Relativamente all’insieme di variabilità degli indici in questione (che vengono detti indici muti) esso sarà
facilmente evincibile dal contesto, quando non espressamente specificato.
Siano V uno spazio vettoriale (di dimensione finita) costruito sul campo IK e V∗ il suo duale. Diremo
prodotto duale l’applicazione
h·, ··i : V∗ × V → IK, (10.56)
che associa ad ogni coppia (v∗ , v) di V∗ × V lo scalare v∗ (v) che denoteremo con hv∗ , vi.

Proposizione 131 Il prodotto duale sopra definito verifica le (∀λ, µ ∈ IK)

hλv∗ + µw∗ , vi = λ hv∗ , vi + µ hw∗ , vi , (10.57)


hv∗ , λv + µwi = λ hv∗ , vi + µ hv∗ , wi , (10.58)
hv∗ , vi = 0 ∀v ∈V ⇔ v∗ = 0, (10.59)
hv∗ , vi = 0 ∀v∗ ∈V∗ ⇔ v = 0. (10.60)

Dimostrazione La (10.57) discende immediatamente dalle definizioni di somma e prodotto per uno scalare
in V∗ , mentre la (10.58) è diretta conseguenza della definizione di spazio duale.
Per quanto riguarda la (10.59), dimostriamo l’implicazione diretta assumendo che sia hv∗ , vi = 0 ∀v ∈V: ne
consegue che v∗ è l’applicazione costante nulla di Hom (V, IK). Assumendo viceversa che v∗ sia l’applicazione
costante nulla si ha hv∗ , vi = 0 ∀v ∈V.
Consideriamo infine la (10.60). Assumendo che sia hv∗ , vi = 0 ∀v∗ ∈V∗ , ciò accade se e solo se

v ∈ ker v∗ ∀v∗ ∈V∗ , (10.61)

il che è vero se e solo se v è il vettore nullo di V. Viceversa, supposto v = 0 e considerato w ∈V (si ricordi
che l’elemento neutro è unico):

hv∗ , vi = hv∗ , 0i = hv∗ , 0wi = 0 hv∗ , wi = 0 ∀v∗ ∈V∗ ,

avendo fatto uso della proposizione 1 e della (10.58).


Il fatto che sussistano le (10.57), (10.58), (10.59), (10.60) più sinteticamente si esprime dicendo (in analogia
alla (7.46)) che il prodotto duale è bilineare e non degenere.
Evidentemente, se V∗∗ è lo spazio biduale di V, è possibile considerare il prodotto duale

h·, ··i : V∗∗ × V∗ → IK. (10.62)

Se β è l’isomorfismo canonico di V∗ in V∗∗ , dalla proposizione 130 e dalla (10.27) segue subito che

hβ (u) , u∗ i := hu∗ , ui , u ∈ V, u∗ ∈ V∗ . (10.63)

Con un abuso notazionale, identificando u con β (u) , possiamo riscrivere la (10.63) nel modo seguente

hu, u∗ i := hu∗ , ui , ∀u∗ ∈ V∗ . (10.64)

La (10.64) ci consente di interpretare ogni elemento di V quale elemento dello spazio biduale Hom(V∗ , IK),
cioé quale applicazione lineare
u : V∗ → IK. (10.65)
La (10.64) si esprime più suggestivamente dicendo che il prodotto duale è simmetrico (proprietà che discende
dall’abuso notazionale operato).
Siano ora V1 , ..., Vq q copie di uno spazio vettoriale V costruito sul campo IK. Se V∗1 , ..., V∗p sono p copie
¡ ¢
del duale di V, diremo tensore di ordine pq in V ogni applicazione multilineare:

T : V∗1 × · · · × V∗p × V1 × · · · × Vq → IK. (10.66)

Diremo anche che il sopra definito tensore è una funzione (p + q)-lineare. L’intero non negativo p è l’ordine
di controvarianza,e l’intero non negativo q è l’ordine di covarianza.
¡¢
Assumeremo poi che ogni scalare sia un tensore di ordine 00 .
¡¢
Un vettore v ∈ V è un tensore di ordine 10 , ovvero è un tensore puramente controvariante di ordine
1. Infatti, dalla 10.64, v può riguardarsi come una applicazione (1 + 0)−lineare

v : V∗ → IK. (10.67)
84 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
¡¢
Diremo covettore ogni tensore di ordine 01 , cioè ogni elemento di V∗ . Un covettore è un tensore
puramente covariante di ordine 1. ¡ ¢
Denotiamo l’insieme di tutti i tensori di ordine pq sullo spazio vettoriale V come Tpq (V). L’insieme
dei tensori puramente covarianti di ordine q è denotato semplicemente Tq (V), mentre l’insieme dei tensori
puramente controvarianti di ordine p è denotato come Tp (V).
Siano L, M ∈ Tpq (V). Definiamo l’operazione somma tra elementi di Tpq (V) nel modo seguente:
¡ ¢ ¡ ¢ ¡ ¢
(L + M) u1 , ..., up , u1 , ..., uq := L u1 , ..., up , u1 , ..., uq + M u1 , ..., up , u1 , ..., uq . (10.68)
Definiamo poi la moltiplicazione di L per uno scalare λ ∈ IK nel modo seguente:
¡ ¢ ¡ ¢
(λL) u1 , ..., up , u1 , ..., uq := λL u1 , ..., up , u1 , ..., uq , (10.69)
∀u1 , ..., up ∈ V∗ , ∀u1 , ..., uq ∈ V.
Dalle precedenti definizioni discende che l’insieme Tpq (V) è uno spazio vettoriale costruito sul campo IK.
L’elemento nullo di Tpq (V) è il tensore
¡ ¢
0 : 0 u1 , ..., up , u1 , ..., uq = 0. (10.70)

Introduciamo ora© il concetto ªdi prodotto tensore. Sia {u1 , u2 , ..., up } un insieme di p vettori in uno spazio
vettoriale V, e sia u1 , u2 , ..., uq un insieme di q covettori nel duale V∗ . La funzione

u1 ⊗ u2 ⊗ · · · ⊗ up ⊗ u1 ⊗ u2 ⊗ · · · ⊗ uq : V∗1 × · · · × V∗p × V1 × · · · × Vq → IK, (10.71)


definita attraverso la sua azione sugli elementi di V e V∗ come
£ ¤¡ ¢
u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq w1 , ..., wp , w1 , ..., wq
­ ® ­ ®
:= w1 , u1 · · · hwp , up i u1 , w1 · · · huq , wq i , (10.72)

è detta prodotto tensore di u1 , u2 , ..., up e u1 , u2 , ..., uq . Dalla (10.57), segue che la applicazione definita
dalla (10.72) risulta (p + q)−lineare, ovvero
u1 ⊗ · · · ⊗ up ⊗ u1 · · · ⊗ uq ∈ Tpq (V) . (10.73)

Proviamo ora che:


Proposizione 132 Sia B = (e1 , ..., en ) una base per uno spazio vettoriale n−dimensionale V e B∗ la base
duale. l’insieme dei prodotti tensore
© ª
ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.74)

forma una base per Tpq (V), detta base prodotto. Pertanto risulta

dim Tpq (V) = n(p+q) . (10.75)


Dimostrazione Per dimostrare il primo asserto occorre provare che (10.74) è un insieme linearmente
indipendente che genera Tpq (V). Per provare l’indipendenza lineare si consideri l’insieme di n(p+q) scalari
© i1 ...ip ª
A j1 ...jq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.76)
e la combinazione lineare degli elementi dell’insieme (10.74) secondo tali coefficienti:

Ai1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq = 0. (10.77)


Essendo il secondo membro il tensore nullo si ha
£ ¤¡ ¢
0 = Ai1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq eh1 , ..., ehp , ek1 , ..., ekq
­ ® ­ ®­ ® ­ ®
= Ai1 ...ip j1 ...jq eh1 , ei1 · · · ehp , eip ej1 , ek1 · · · ejq , ekq
= Ai1 ...ip j1 ...jq δ ih11 · · · δ ihpp δ kj11 · · · δ kjqq = Ah1 ...hp k1 ...kq = 0, (10.78)

da cui, essendo tutti nulli i coefficienti della combinazione lineare, l’insieme (10.74) è formato da vettori
linearmente indipendenti. Proviamo ora che ogni elemento di Tpq (V) può esprimersi come combinazione
lineare degli elementi dell’insieme (10.74). Consideriamo nuovamente una collezione di n(p+q) scalari
© i1 ...ip ª
B j1 ...jq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.79)
10.7. TENSORI ED ALGEBRA TENSORIALE. 85
¡ ¢
definiti come i valori di un tensore B ∈ Tpq (V) in ei1 , ..., eip , ej1 , ..., ejq :
¡ ¢
B i1 ...ip j1 ...jq := B ei1 , ..., eip , ej1 , ..., ejq . (10.80)

Ripercorrendo a ritroso i passaggi che hanno condotto alla (10.78) si ottiene


£ i1 ...ip j1 jq
¤ ¡ h1 ¢
B j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ e ⊗ · · · ⊗ e e , ..., ehp , ek1 , ..., ekq
¡ ¢
= B eh1 , ..., ehp , ek1 , ..., ekq , (10.81)

∀h1 , ..., hp , k1 , ...kq = 1, ..., n. Essendo B multilineare in quanto appartenente all’insieme Tpq (V), ed essendo
B, B∗ basi duali, dalla (10.81) segue che
¡ ¢
B i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq u1 , ..., up , u1 , ..., uq
¡ ¢
= B u1 , ..., up , u1 , ..., uq , ∀u1 , ..., up ∈ V∗ , u1 , ..., uq ∈ V, (10.82)

ovvero
B = B i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq . (10.83)
Ricordando la proposizione 19 possiamo concludere che l’insieme (10.74) è una base per Tpq (V). La cardinalità
di tale insieme uguaglia il numero delle (p + q) − ple ordinate di elementi di V, n(p+q) . Ne segue l’asserto.
Il primo membro della (10.80) assume n(p+q) valori ciascuno dei quali è detto componente del tensore
B.
Per il caso in cui V sia di dimensione finita n, stabiliremo una connessione tra un elemento di Hom (V, V)
ed un tensore di T11 (V), ovvero tra una trasformazione lineare da V in sé ed una funzione bilineare da V∗ × V
in IK. Se T ∈Hom (V, V), definiamo T e come

e (u∗ , u) := hu∗ , Tui


T ∀u ∈ V, ∀u∗ ∈ V∗ . (10.84)

e risulta bilineare, ovvero T


Dalle (10.57), (10.58), T e ∈ T1 (V).È quindi possibile introdurre la applicazione
1

f : Hom (V, V) → T1 (V) ,


(·) (10.85)
1

tale che
f (T) = T,
(·) e (10.86)
nel senso specificato dalla (10.84).

f definita dalla (10.85)


Proposizione 133 Se V è uno spazio vettoriale di dimensione finita n, l’applicazione (·)
1
è un isomorfismo tra Hom (V, V) e T1 (V).

f Dimostriamo quindi che (·)


Dimostrazione È immediato verificare la linearità di (·). f è iniettiva. Ponendo
e = 0 nella (10.84) si ottiene
T
hu∗ , T (u)i = 0 ∀u∗ ∈ V∗ , ∀u ∈ V. (10.87)
Dalla (10.60), la condizione precedente equivale a

T (u) = 0 ∀u ∈V, (10.88)

f è dunque iniettiva dalla proposizione 34 (risulta infatti ker T


ovvero T = 0. (·) e = 0). Dalla proposizione 39 si
ha infine
f = dim T1 (V) ,
dim Im (·) (10.89)
1

da cui , ricordando la proposizione 32


f = T1 (V) ,
Im (·) (10.90)
1

f è un isomorfismo essendo insieme iniettiva e suriettiva.


ovvero (·)
f viene riguardata come un isomorfismo canonico. Il tensore T può dunque intendersi sia
l’applicazione (·)
come trasformazione lineare
T : V → V, (10.91)
sia come forma bilineare
T : V∗ ×V → IK, (10.92)
86 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

ovvero, con abuso di notazione, si può scrivere


T (u∗ , u) = hu∗ , T (u)i . (10.93)
Questa proposizione può essere vista come un corollario della prossima proposizione 144.
Sia u ∈ V, u∗ ∈ V∗ . Il loro prodotto tensore è una forma bilineare
u ⊗ u∗ : V∗ × V →IK, (10.94)
definita come
[u ⊗ u∗ ] (w∗ , w) = hw∗ , ui hu∗ , wi . (10.95)
Facendo uso dell’isomorfismo canonico ovvero operando l’abuso di notazione di cui alla (10.93), il tensore
u ⊗ u∗ corrisponde ad un endomorfismo [u ⊗ u∗ ] ∈ Hom (V, V). Ancora dalla (10.93) si ha infatti
[u ⊗ u∗ ] (w∗ , w) = hw∗ , [u ⊗ u∗ ] (w)i , (10.96)
ovvero
hw∗ , ui hu∗ , wi = hw∗ , [u ⊗ u∗ ] (w)i , ∀w ∈ V, ∀w∗ ∈ V∗ . (10.97)
Dalle (10.57), (10.58) (bilinearità del prodotto duale), il primo membro dell’ultima equazione può riscriversi
come
hw∗ , ui hu∗ , wi = hw∗ , hu∗ , wi ui . (10.98)
Dalla (10.59) si stabilisce infine che
hw∗ , hu∗ , wi ui = hw∗ , [u ⊗ u∗ ] (w)i ;
hw∗ , hu∗ , wi u − u ⊗ u∗ (w)i = 0 ∀w∗ ∈ V∗ ⇒
⇒ hu∗ , wi u = [u ⊗ u∗ ] (w) ∀w ∈V, (10.99)

il che identifica u ⊗ u come un endomorfismo in V.
Rivolgendo nuovamente l’attenzione allo spazio Tpq (V), come conseguenza della proposizione 132 si ha
(vedi proposizione 19) che tutti i prodotti tensore nella forma (10.72) formano un insieme di generatori per
Tpq (V).
Diremo tensore semplice una applicazione che possa rappresentarsi attraverso un prodotto
¡ tensore
¢ nella
forma (10.72). È chiaro che questa rappresentazione non è unica. Si consideri ad esempio 2u ⊗ 12 u∗ , u ∈
V, u∗ ∈ V∗ . Dalla (10.72) si ha
∙ ¸ ¿ À
1 1 ∗
2u ⊗ u∗ (v, v∗ ) = hv∗ , 2ui u ,v
2 2
∗ ∗
= hv , ui hu , vi
= [u ⊗ u∗ ] (v, v∗ ) ∀u ∈ V, ∀u∗ ∈ V∗ . (10.100)
Il prodotto tensore come definito dalla (10.72) può riguardarsi in generale come una mappa
⊗ : V1 × ... × Vp × V∗1 × ... × V∗q → Tpq (V) , (10.101)
definita come ¡ ¢
⊗ u1 , ..., up , u1 , ..., uq := u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , (10.102)
1 q ∗
∀u1 , ..., up ∈ V, ∀u , ..., u ∈ V . Tale applicazione è evidentemente multilineare nel senso specificato nella
sezione 10.6.
Estendiamo ora l’operazione di prodotto tensore tra vettori e covettori al caso di tensori di ordine superiore
al primo. Siano T ∈ Tpq (V) ed U ∈ Trs (V). La mappa

⊗ : Tpq (V) × Trs (V) → Tp+r


q+s (V) , (10.103)
tale che
¡ ¢ ¡ ¢ ¡ ¢
[T ⊗ U] u1 , ..., up+r , u1 , ..., uq+s := T u1 , ..., up , u1 , ..., uq U up+1 , ..., up+r , uq+1 , ..., uq+s , (10.104)
∀u1 , ..., up+r ∈ V∗ , ∀u1 , ..., uq+s ∈ V è detta prodotto tensore di T ed U. Esplicitando la precedente
definizione, le componenti di tale tensore sono
(T ⊗ U)i1 ...ip+r j1 ...jq+s = T i1 ...ip j1 ...jq U ip+1 ...ip+r jq+1 ...jq+s , (10.105)
e la sua rappresentazione in una base prodotto generata dalla base B è
T ⊗ U = T i1 ...ip j1 ...jq U ip+1 ...ip+r jq+1 ...jq+s ei1 ⊗ · · · ⊗ eip+r ⊗ ej1 ⊗ · · · ⊗ ejq+s . (10.106)
10.8. CAMBIAMENTO DELLE COMPONENTI DI UN TENSORE. 87

10.8 Cambiamento delle componenti di un tensore.


¡ ¢T
Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Siano poi B = v1 v2 ··· vn
¡ ¢T
e Be = w1 w2 · · · wn due basi per V. Dalla (10.20) è:
⎛ ⎞ ⎛ ⎞
w1 v1
⎜ w2 ⎟ ¡ ¢ ⎜ v2 ⎟
⎜ ⎟ T⎜ ⎟
⎜ .. ⎟ = A−1 ⎜ .. ⎟ , (10.107)
⎝ . ⎠ ⎝ . ⎠
wn vn
¡ −1 ¢T ³ ´
ove A = AB h. Posto A
id,B
= C = cji (ove l’indice di riga i e l’indice di colonna j variano da 1 alla
dimensione n dello spazio V), dalla (10.107) segue (applicando la convenzione di Einstein):

wi = cji vj i = 1, 2, ..., n. (10.108)


¡ ¢ ¡ ¢
Siano ora B ∗ = v1 v2 ··· vn e Be∗ = w1 e rispettivamente.
w2 · · · wn le basi duali delle B e B,
Dalla (10.26) segue: ¡ 1 ¢ ¡ ¢
w ··· w n = v1 ··· vn AT , (10.109)
ove A è l’inversa della trasposta di C, cioè:
¡ ¢T
A = C −1 . (10.110)
¡ ¢
Sia allora B = AT . Evidentemente è B = C −1 . Posto B = bhk dalla (10.109) segue:

wh = bhk vk h = 1, 2, ..., n. (10.111)

In forza di quanto detto, risulta B = C −1 , onde è:

cji bhj = δ hi , (10.112)

ove δ hi è il delta di Kronöcher. ¡ ¢


Ricordiamo ora che, per le componenti di un tensore di ordine pq si era posto (quando era stata fissata
la base B per V), cfr. (10.80):
¡ ¢
T i1 ...ip j1 ...jq = T vi1 , ..., vip , vj1 , ..., vjq . (10.113)

Analogamente, quando in V si fissa la base B, e le componenti del tensore risultano:


¡ ¢
Teh1 ...hp k1 ...kq = T wh1 , ..., whp , wk1 , ..., wkq . (10.114)

Al fine di fornire le relazioni che legano le componenti T i1 ...ip j1 ...jq alle Teh1 ...hp k1 ...kq , sostituiamo nel secondo
membro di (10.114) in luogo dei vettori di Be e Be∗ le loro espressioni (in funzione dei vettori di B e B∗ ,
rispettivamente) fornite dalle (10.108) ed (10.111). Otteniamo:
³ ´
h j
Teh1 ...hp k1 ...kq = T bhi11 vi1 , ..., bipp vip , cjk11 vj1 , ..., ckqq vjq . (10.115)

Poichè T è multilineare, il secondo membro della (10.115) è uguale a:


h j ¡ ¢
bhi11 · · · bipp cjk11 · · · ckqq T vi1 , ..., vip , vj1 , ..., vjq , (10.116)

e da quanto detto, tenuto conto della (10.113), risulta:


³ ´
h j
Teh1 ...hp k1 ...kq = bhi11 · · · bipp cjk11 · · · ckqq T i1 ...ip j1 ...jq . (10.117)

La (10.117) è detta legge di trasformazione delle componenti di un tensore T; tale legge mette in
relazione le componenti nella base prodotto generata da B con le componenti nella base prodotto generata da
e Detta t tale relazione, si verifica facilmente che essa è di equivalenza (vedi le (A.34), (A.35) e (A.36) in
B.
Appendice A).
Molti trattati classici sui tensori utilizzano la legge di trasformazione (10.117) per definire tale ente. La
seguente proposizione lega questa definizione con quella precedentemente data.
88 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE

Proposizione 134 Siano

ip = (i1 , ..., ip ) , (10.118)


iq = (j1 , ..., jq ) , (10.119)

rispettivamente la classe delle p − ple ordinate e q − ple ordinate di elementi dell’insieme {1, ..., n} e sia
©¡ ¢ª
c := B, ψ B : ip × iq 3 ({i1 , ..., ip } , {j1 , ..., jq }) 7−→ T i1 ...ip j1 ...jq ∈ IK , (10.120)

la classe delle applicazioni ψ B che associa alla coppia ({i1 , ..., ip } , {j1 , ..., jq }) lo scalare T i1 ...ip j1 ...jq quando
sia stata scelta una base B di V. Se
n ³ ´o
e ψh
ψ B tψ Bh ∀ (B, ψ B ) , B, ∈ c2 , (10.121)
B

(cioè se ψ B e ψ Bh sono in relazione di equivalenza attraverso t) allora esiste un tensore T ∈ Tpq (V) le cui
© ª
componenti nelle basi prodotto di Tpq (V) generate dalle basi B e Be di V sono rispettivamente T i1 ...ip j1 ...jq
n o
e Tei1 ...ip j ...j , i1 , ..., ip , j1 , ..., jq = 1, ..., n.
1 q

Dimostrazione La dimostrazione è ovvia; è infatti possibile definire T ∈ Tpq (V) come

T = T i1 ...ip j1 ...jq vi1 ⊗ · · · ⊗ vip ⊗ vj1 ⊗ · · · ⊗ vjq , (10.122)

nella base prodotto di Tpq (V) generata da B. Dalla legge di trasformazione (10.117) discende che le
n o
Tei1 ...ip j1 ...jq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.123)

sono le componenti dello stesso tensore nella base prodotto di Tpq (V) generata da Be purché B e Be siano legate
dalla (10.107).

Proposizione 135 Ad ogni tensore T ∈ Tpq (V) corrisponde una classe di equivalenza di scalari (componenti)
e la legge di trasformazione (10.117) è la relazione di equivalenza che definisce tale classe.

Dimostrazione È ovvia conseguenza della proposizione precedente.

10.9 Tensore contratto.


Con riferimento alle notazioni sin qui adottate, consideriamo i vettori (qualsivoglia) u2 , u3 , ..., up ∈ V∗ e
u2 , u3 , ..., uq ∈ V senza alcun vincolo di dualità. È allora individuata la somma (ricordiamo che applichiamo
la convenzione di Einstein): ¡ ¢
T vi , u2 , ..., up , vi , u2 , ..., uq , (10.124)
Nella somma definita in (10.124) l’indice muto è il primo di controvarianza ed il primo di covarianza. Tale
somma è detta tensore contratto saturando il primo indice di controvarianza con il primo di covarianza;
esso è denotato con T11 .
Faremo ora vedere che il tensore contratto definito in (10.124) non dipende dalla scelta della base di V.
Infatti, scegliendo Be quale base per V il tensore contratto si scrive:
¡ ¢
T wi , u2 , ..., up , wi , u2 , ..., uq , (10.125)

Sostituendo nella (10.125), in luogo di wi e wi le loro espressioni fornite da (10.111) e (10.108) rispettivamente,
otteniamo:
¡ ¢
T wi , u2 , ..., up , wi , u2 , ..., uq
³ ´
= T bih vh , u2 , ..., up , cji vj , u2 , ..., uq
¡ ¢
= bih cji T vh , u2 , ..., up , vj , u2 , ..., uq . (10.126)

Ma è (cfr. (10.112)):
bih cji = δ jh , (10.127)
10.9. TENSORE CONTRATTO. 89

onde l’ultima espressione che compare in (10.126) è:


¡ ¢
δ jh T vh , u2 , ..., up , vj , u2 , ..., uq
³ ´
= T δ jh vh , u2 , ..., up , vj , u2 , ..., uq
¡ ¢
= T vj , u2 , ..., up , vj , u2 , ..., uq , (10.128)

coincidente con la (10.125).


Analogamente a quanto ora esposto si può procedere alla costruzione del tensore contratto ottenuto satu-
rando l’indice di controvarianza r (con r ≤ p) con l’indice di covarianza s (con s ≤ q). Esso è denotato con il
simbolo Trs .
L’operazione di contrazione è iterabile più volte sino ad esaurimento degli indici di controvarianza (se
p < q) o di quelli di covarianza (se q < p).
Sia B = (v1 , v2 , ..., vn ) una base dello spazio vettoriale n−dimensionale V costruito sul campo IK. Diremo
matrice associata alla forma bilineare
T : V × V →IK, (10.129)
la matrice T ∈ M(n × n, IK) il cui elemento Tij è così definito:

Tij = T (vi , vj ) . (10.130)

Concludiamo questo numero osservando che, nel caso in cui risulti p = 0, q = 2 ed n = 3, diremo tensore
contratto di una forma bilineare T lo scalare che si ottiene sommando gli elementi siti sulla diagonale
principale della matrice associata a T.
Per maggiori dettagli sulle contrazioni si rimanda al Capitolo 11 della Parte II.
90 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
Bibliografia

[1] Tallini G (1973) Varietà differenziabili e coomologia di de Rham, Cremonese, Roma.

91
92 BIBLIOGRAFIA
Parte II

Applicazioni

93
Capitolo 11

ANCORA SUI TENSORI

11.1 Contrazioni.
¡ ¢
In questa sezione si prenderà in esame l’operazione di contrazione semplice di un tensore di ordine pq ; il
¡p−1¢
risultato di tale operazione è un tensore di ordine q−1 .
Il concetto di tensore come forma multilineare definito dalla (10.66) può essere esteso introducendo il
concetto di trasformazione multilineare a valori in un generico spazio vettoriale U:

X : V1 × · · · × Vp × V∗1 × · · · × V∗q → U. (11.1)

La seguente proposizione esprime la proprietà di fattorizzazione universale del prodotto tensore, ovvero il
fatto che una trasformazione multilineare X come data dalla (11.1) può essere fattorizzata (con opportuno
significato del termine) attraverso il prodotto tensore.

Proposizione 136 Sia X una trasformazione multilineare come definita dalla (11.1); allora esiste ed è unica
la trasformazione lineare:
C : Tpq (V) → U, (11.2)
tale che ¡ ¢ ¡ ¢
X u1 , ..., up , u1 , ..., uq = C u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , (11.3)
1 q ∗
∀u1 , ..., up ∈ V, ∀u , ..., u ∈ V .

Dimostrazione Poichè i tesori semplici formano un insieme di generatori per Tpq (V), se la trasformazione
lineare C soddisfacente la (11.3) esiste essa è unica. Per provarne l’esistenza si consideri una base B =
(e1 , ..., en ) di V. Definiamo ora la base prodotto per Tpq (V) come in (10.74) e sia
¡ ¢ ¡ ¢
C ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq := X ei1 , ..., eip , ej1 , ..., ejq , (11.4)

∀i1 , ..., ip , j1 , ..., jq = 1, ..., N . Quindi C può essere estesa per linearità a tutti i tensori semplici in Tpq (V).
Stante la multilinearità di X l’applicazione C definita in questo modo soddisfa la (11.3).
Indicando con “◦” l’operazione di composizione, la condizione (11.3) può essere riscritta in modo suggestivo
come
X = C ◦ ⊗, (11.5)
dove abbiamo indicato con ⊗ l’applicazione definita in (10.102). La precedente esprime in modo sintetico il
significato della fattorizzazione universale, ovvero il fatto che l’azione di un tensore X su un insieme di vettori
e covettori u1 , ..., up , u1 , ..., uq equivale alla azione di una applicazione lineare C (la cui esistenza ed unicità
sono state provate nella proposizione precedente) sul tensore semplice u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq .
Siano u ∈V, u∗ ∈V∗ . Tenendo presente la (10.64),indichiamo con hu, u∗ i il prodotto duale tra u e u∗ . La
mappa
h·, ··i : V × V∗ → IK, (11.6)
è bilineare (dalle (10.57), (10.58)). In virtù della proposizione 136, essa può essere fattorizzata attraverso il
prodotto tensore
⊗ : V × V∗ → T11 (V) , (11.7)
ovvero, esiste una applicazione lineare
C :T11 (V) → IK, (11.8)

95
96 CAPITOLO 11. ANCORA SUI TENSORI

tale che
h , i = C ◦ ⊗, hu, u∗ i = C (u ⊗ u∗ ) ∀u ∈V, ∀u∗ ∈V∗ . (11.9)
La funzione lineare C precedentemente definita è l’esempio più elementare di contrazione. Essa è una
trasformazione dello spazio T11 (V) nello spazio T1−1 0 p
1−1 (V) = T0 (V) = IK. Sia T ∈ Tq (V) un tensore semplice
nella forma
T = u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , u1 , ..., up ∈ V, u1 , ..., uq ∈ V∗ . (11.10)
Per ogni coppia di interi i, j, con 1 ≤ i ≤ p, 1 ≤ j ≤ q, diremo contrazione semplice una trasformazione
lineare
p−1
Cij : Tpq (V) → Tq−1 (V) , (11.11)
tale che
­ ®
Cij (T) = uj , ui u1 ⊗ · · · ⊗ ui−1 ⊗ ui+1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uj−1 ⊗ uj+1 ⊗ · · · ⊗ uq , (11.12)

∀T ∈Tpq (V). Introducendo una notazione più compatta riscriviamo il prodotto tensore a secondo membro
come
b i · · · ⊗ up ⊗ u1 ⊗ · · · u
u1 ⊗ · · · u b j · · · ⊗ uq . (11.13)

Proposizione 137 L’operazione di contrazione semplice Cij soddisfacente la (11.12) è unica.

Dimostrazione Definiamo una trasformazione multilineare nella forma (11.1) scegliendo U = Tp−1
q−1 (V):
¡ ¢ ­ ®
Z u1 , ..., up , u1 , ..., uq = uj , ui u1 ⊗ · · · u
b i · · · ⊗ up ⊗ u1 ⊗ · · · u
b j · · · ⊗ uq , (11.14)

∀u1 , ..., up ∈ V, ∀u1 , ..., uq ∈ V∗ . Dalla proposizione 136 esiste ed unica la trasformazione lineare Cij (11.11)
tale che sia soddisfatta la condizione (11.12).
Attraverso la seguente proposizione otteniamo la rappresentazione per componenti del tensore Cij (T).
¡p¢
Proposizione 138 Sia T ∈ Tpq (V) un tensore di ordine i
q ; allora le componenti del tensore Cj (T) ∈
Tp−1
q−1 (V) relative ad una base prodotto generata dalle base B sono date da

¡ i ¢h1 ...hi−1 hi+1 ...hp


Cj T k
= T h1 ...hi−1 r hi+1 ...hp k1 ...kj−1 r kj+1 ...kq . (11.15)
1 ...kj−1 kj+1 ...kq

Dimostrazione Poiché l’operazione di contrazione semplice è lineare, applicandola ad un tensore rappre-


sentato come
T = T h1 ...hp k1 ...kq eh1 ⊗ · · · ⊗ ehp ⊗ ek1 ⊗ · · · ⊗ ekq , (11.16)
si ottiene ­ ®
Cij T = T h1 ...hp k1 ...kq ekj , ehi eh1 ⊗ · · · b
ehi · · · ⊗ ehp ⊗ ek1 ⊗ · · · b
ekj · · · ⊗ ekq , (11.17)
­ ® k
onde l’asserto essendo ekj , ehi = δ hji .
Nel caso particolare in cui C sia dato dalla (11.6), la precedente espressione si riduce a

C (T) = T i i , ∀T ∈T11 (V) , (11.18)

essendo

T = T h k eh ⊗ ek ;
­ ®
C (T) = ek , eh T h k = δ kh T h k = T k k . (11.19)

Facendo uso dell’isomorfismo canonico, ovvero operando l’identificazione

T11 (V) ≡ Hom (V, V) , (11.20)

l’operatore C è detto traccia di T riguardato come un endomorfismo su V, ovvero come un elemento di


Hom (V, V) (l’operatore traccia verrà in seguito esaminato nel dettaglio relativamente al caso dei tensori
doppi sugli spazi vettoriali tridimensionali dotati di un prodotto scalare).
Consideriamo lo spazio Tpq (V) e siano

(h1 , ..., hN ) , (k1 , ..., kN ) , (11.21)


11.1. CONTRAZIONI. 97

due disposizioni semplici1 di ordine N sull’insieme {1, ..., min (p, q)} cosicché è verificata la

∀i, j ∈ (1, ..., N ) , i 6= j ⇒ hi 6= hj , ki 6= kj . (11.22)

Diremo contrazione di ordine N la funzione

C : T ∈ Tpq (V) 7−→ CT ∈ Tp−N


q−N (V) , (11.23)

composta da N contrazioni semplici


C := Chk11 ◦ · · · ◦ ChkNN . (11.24)

Consideriamo ora lo spazio Tp+q


q+p (V) con

0 ≤ p ≤ p, 0 ≤ q ≤ q. (11.25)

Dato m ≤ p + q, diremo contrazione ((p, p) , (q, q)) − esterna di ordine m una contrazione di ordine m che
applicata al tensore [T ⊗ U] ∈ Tp+q p q
q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) ne saturi esclusivamente indici del tensore T
con indici del tensore U. Diremo inoltre contrazione semplice ((p, p) , (q, q)) − esterna del tensore [T ⊗ U]
(con omissione dell’ordine) una contrazione ((p, p) , (q, q)) − esterna di ordine m = 1. Denoteremo con C la
classe delle contrazioni semplici ((p, p) , (q, q)) − esterne.

Proposizione 139 Una contrazione C di ordine m è ((p, p) , (q, q)) − esterna di ordine m se e solo se, fissata
una sua decomposizione in contrazioni semplici

C = Chk11 ◦ · · · ◦ Chkm
m
, (11.26)

si ha che tutte le contrazioni semplici che la compongono appartengono alla classe C appena definita.

Dimostrazione Dimostriamo l’implicazione diretta per la caratterizzazione data dalla proposizione as-
sumendo che C sia ((p, p) , (q, q))−esterna di ordine m. Dalla definizione di contrazione ((p, p) , (q, q))−esterna,
C satura indici di T con indici di U; ne discende che ogni contrazione semplice che la compone è una contrazione
((p, p) , (q, q)) − esterna.
Assumendo viceversa che tutte le contrazioni semplici della decomposizione (11.26) siano ((p, p) , (q, q)) −
esterne di ordine 1, ancora dalla definizione di contrazione esterna si ha che ognuna di esse satura un indice di
T con un indice di U; il loro effetto composto, coincidente con l’azione di C, è quindi quello di saturare indici di
T esclusivamente con indici di U, il che caratterizza la stessa C come una contrazione ((p, p) , (q, q)) − esterna.

Proposizione 140 Sia C una contrazione ((p, p) , (q, q)) − esterna di ordine m. Se (j1 , ..., jm ) è una permu-
tazione dell’insieme {1, ..., m}, allora la contrazione

e = Chj1 ◦ · · · ◦ Chjm
C (11.27)
kj i
kjm

e = C.
è ((p, p) , (q, q)) − esterna di ordine m. Inoltre C

Dimostrazione È ovvia conseguenza della proposizione 139 e della proposizione 138.


La proposizione precedente implica che componendo in un ordine qualsiasi un insieme fissato di m con-
trazioni semplici ((p, p) , (q, q)) − esterne si ottiene sempre la stessa contrazione ((p, p) , (q, q)) − esterna.
Denoteremo con Cp , Cq le due classi di contrazioni semplici definite da
© ª
Cp := Chk | (1 ≤ h ≤ p) e (q + 1 ≤ k ≤ q + p) , (11.28)
Cq := {Crs | (p + 1 ≤ r ≤ p + q) e (1 ≤ s ≤ q)} . (11.29)

Proposizione 141 Siano Cp , Cq le due classi di contrazioni semplici precedentemente introdotte. Allora i
seguenti asserti risultano veri:

1. tutte le contrazioni semplici appartenenti alle classi Cp , Cq sono ((p, p) , (q, q)) − esterne;
1 Dato un insieme Ξ di cardinalità n ed un intero positivo k 6 n, si chiamano disposizioni semplici di ordine k le sequenze

di k degli n oggetti di Ξ in cui non ci siano elementi ripetuti e nei quali l’ ordine con il quale questi si sussiegono è un carattere
n!
distintivo. Il numero delle disposizioni semplici è Dn,k = (n−k)!
98 CAPITOLO 11. ANCORA SUI TENSORI

2. le due classi Cp e Cq sono disgiunte, ovvero si ha


Cp ∩ Cq = ∅; (11.30)

3. la cardinalità delle due classi in termini di p, q, p, q è data da


Card Cp = pp, Card Cq = qq. (11.31)

Dimostrazione Consideriamo [T ⊗ U] ∈ Tp+q p q


q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) e la sua rappresentazione
(10.106). Dalla (11.28) si ha che h individua un indice ih ∈ [i1 , ip ] che è di controvarianza per T, mentre
k individua un indice jk ∈ [jq+1 , jq+p ] che risulta evidentemente essere di covarianza per U. Ogni elemento
Chk ∈ Cp satura dunque un indice di controvarianza di T con un indice di covarianza di U; dalla definizione
di contrazione semplice esterna tutte le Chk sono contrazioni semplici ((p, p) , (q, q)) − esterne. Analogamente,
dalla (11.29) si ha che ogni elemento Crs ∈ Cq satura un indice di covarianza di T con un indice di controvarianza
di U, da cui tutte le Crs sono contrazioni semplici ((p, p) , (q, q)) −esterne. La prova del primo asserto è dunque
completa.
La dimostrazione del secondo asserto è banale nel caso in cui almeno una delle due classi Cp e Cq è vuota.
Se entrambe sono non vuote basta ricordare che Cp ∩ Cq 6= ∅ implica che esiste Cξη ∈ Cp ∩ Cq tale che

(1 ≤ ξ ≤ p) e (p + 1 ≤ ξ ≤ p + q) ,
(11.32)
(1 ≤ η ≤ q) e (q + 1 ≤ η ≤ q + p) ,
e constatare che queste relazioni sono contraddittorie.
Il terzo asserto discende immediatamente dalle (11.28), (11.29). Detti infatti
H := {h | 1 ≤ h ≤ p} , K := {k | q + 1 ≤ k ≤ q + p} ,
P := H × K = {(h, k) | h ∈ H, k ∈ K} ,
(11.33)
R := {r | p + 1 ≤ r ≤ p + q} , S := {s | 1 ≤ s ≤ q} ,
Q := R × S = {(r, s) | r ∈ R, s ∈ S} ,
risulta evidente che Cp contiene tante contrazioni quanti sono gli elementi di P , mentre le contrazioni in Cq
sono tante quante gli elementi di Q, ovvero si ha
Card Cp = Card P = Card H Card K = pp,
(11.34)
Card Cq = Card Q = Card R Card S = qq.

Proposizione 142 Tutte le contrazioni semplici ((p, p) , (q, q)) − esterne appartengono alla unione Cp ∪ Cq ,
ovvero C = Cp ∪ Cq .
Dimostrazione Sia Chk una contrazione semplice ((p, p) , (q, q)) − esterna. Si ha che
(1 ≤ h ≤ p) , (q + 1 ≤ k ≤ q + p) , (11.35)
oppure
(p + 1 ≤ h ≤ p + q) , (1 ≤ k ≤ q) ; (11.36)
la contrazione Chk p q
appartiene quindi alla classe C oppure alla classe C (cfr le (11.28), (11.29)), ovvero
Chk ∈ Cp ∪ Cq da cui C = Cp ∪ Cq .
Ritorniamo ora alle contrazioni esterne fissando l’attenzione su quelle di ordine p + q. Denoteremo con C
la classe delle contrazioni ((p, p) , (q, q)) − esterne di ordine p + q :
p+q
C : Tq+p (V) → Tp−p
q−q (V) . (11.37)
Passiamo ora alla caratterizzazione della classe C appena introdotta.
Proposizione 143 Sia C ∈ C e sia n o
hp+q
c = Chk11 , ..., Ckp+q , (11.38)
l’insieme delle contrazioni semplici ((p, p) , (q, q)) − esterne che la compongono. Tale insieme può comunque
essere ripartito in due sottoinsiemi
cp ⊆ Cp ,
(11.39)
cq ⊆ Cq ,
di cardinalità rispettiva p e q.
11.1. CONTRAZIONI. 99

Dimostrazione Dalla definizione di contrazione semplice esterna e dalla proposizione 142 possiamo
innanzitutto constatare che
c ⊆ Cp ∪ Cq . (11.40)

Considerata la rappresentazione del tensore [T ⊗ U] ∈ Tp+q p q


q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) in una base prodotto
generata dalla base B di V

T ⊗ U = T i1 ...ip j1 ...jq U ip+1 ...ip+q jq+1 ...jq+p ei1 ⊗ · · · ⊗ eip+q ⊗ ej1 ⊗ · · · ⊗ ejq+p , (11.41)

si evince che p contrazioni semplici ((p, p) , (q, q)) − esterne di c devono essere tali che

(1 ≤ h ≤ p) e (q + 1 ≤ k ≤ q + p) , (11.42)

mentre le restanti q devono essere tali che

(p + 1 ≤ h ≤ p + q) e (1 ≤ k ≤ q) , (11.43)

ovvero, dalle (11.28), (11.29), p devono appartenere a Cp e le restanti q devono appartenere a Cq .


Data C ∈C, considerata la partizione dell’insieme c di cui al lemma precedente e tenendo presente la
proposizione 140, le contrazioni semplici ((p, p) , (q, q)) − esterne componenti C possono comunque essere
ordinate in modo tale da raggruppare le p appartenenti all’insieme cp e le q dell’insieme cq . La contrazione C
può riscriversi quindi come la composta di due contrazioni Cp , Cq ((p, p) , (q, q)) − esterne di ordini rispettivi
p e q con cp e cq insiemi delle contrazioni semplici ((p, p) , (q, q)) − esterne componenti le due:

C = Cp ◦ Cq , (11.44)

con n o
rp
cp = Crq+1
1
, ..., Cq+p ,
n o (11.45)
cq = Cp+1
s1 , ..., Csq
p+q
,

e
r
Cp = Crq+1
1 p
◦ · · · ◦ Cq+p ,
(11.46)
Cq = Cp+1 p+q
s1 ◦ · · · ◦ Csq ,

dove (r1 , ..., rp ) è una disposizione semplice di ordine p sull’insieme {1, ..., p} mentre (s1 , ..., sq ) è una dispo-
sizione semplice di ordine q sull’insieme {1, ..., q}2 . Le componenti del tensore C (T ⊗ U) ∈ Tp−p q−q (V) saranno
indicate come ³ ´³ ´
js1 jsq j j
Li1 ...ip j1 ...jq M ip+1 ...ip+q jq+1 ...jq+p δ ip+1 · · · δ ip+q δ irq+1 · · · δ irq+p
1 p (11.47)
= Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp ,

dove la scrittura i1 ...ir1 ...irp ...ip indica sinteticamente i p indici ir1 ...irp di L sommati con gli omonimi di M.
È bene tenere presente che i1 ...ir1 ...irp ...ip non differisce da i1 ...ip , così come j1 ...js1 ...jsq ...jq non differisce da
j1 ...jq .
Delineata la struttura della classe C, introduciamo ora una classe di applicazioni lineari ad essa legate.
Scelti quattro interi p, q, p, q sottoposti alle limitazioni (11.25), sia J ((p, p) , (q, q)) la classe di applicazioni
h i
JC : Tpq (V) → Hom Tqp (V) , Tq−q
p−p
(V) , (11.48)

definite dalla
(JC L) M := C (L ⊗ M) , ∀L ∈ Tpq (V) , ∀M ∈ Tqp (V) , (11.49)

al variare di C in C.
Enunciamo la

Proposizione 144 Tutte le applicazioni JC ∈ J ((p, p) , (q, q)) di cui alla definizione precedente sono iso-
morfismi.
2 E’ p! q!
evidente che il numero delle Cp è (p−p)!
mentre il numero delle Cq è (q−q)!
.
100 CAPITOLO 11. ANCORA SUI TENSORI

Dimostrazione Verifichiamo innanzitutto che JC è lineare. Dalla (11.49) e ricordando che la contrazione
ed il prodotto tensore sono operatori lineari si ha che, ∀L, M ∈ Tpq (V) , ∀N ∈ Tqp (V) :

[JC (αL + βM)] N = C [(αL + βM) ⊗ N]


= C [α (L ⊗ N) + β (M ⊗ N)]
= αC (L ⊗ N) + βC (M ⊗ N)
= α (JC L) N + β (JC M) N. (11.50)

Dimostriamo ora l’iniettività, ovvero la validità dell’implicazione

JC L = 0 ⇒ L = 0. (11.51)

Poniamo a tal fine JC L = 0 nella (11.49) ottenendo

0 (M) = 0 ∀M ∈ Tqp (V) ⇒


⇒ C (L ⊗ M) = 0 ∀M ∈ Tqp (V) . (11.52)

Consideriamo ora la rappresentazione di [L ⊗ M] in una base prodotto generata dalle base B di V:

L ⊗ M = Li1 ...ip j1 ...jq M ip+1 ...ip+q jq+1 ...jq+p ei1 ⊗ · · · ⊗ eip+q ⊗ ej1 ⊗ · · · ⊗ ejq+p . (11.53)

Le componenti del tensore C (L ⊗ M) sono date da

Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp . (11.54)

Dalla (11.52) si ha

Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp = 0 ∀ M js1 ...jsq ir1 ...irp ,
⇒ Li1 ...ip j1 ...jq = 0, i1 , ..., ip , j1 , ..., jq = 1, ..., n, (11.55)
⇒ L = 0.

l’applicazione JC è dunque iniettiva. Dalla proposizione 39 e dalla proposizione 132 discende che

dim Im JC = (dim V)p+q ,


h i
p+q
dim Hom Tqp (V) , Tq−q
p−p
(V) = (dim V) , (11.56)
h i
dim Im JC = dim Hom Tqp (V) , Tq−q
p−p
(V) ,

ovvero, ricordando la proposizione 32


h i
Im JC = Hom Tqp (V) , Tp−p
q−q (V) . (11.57)

La dimostrazione è completa: JC si caratterizza infatti come un isomorfismo essendo una applicazione lineare
iniettiva e suriettiva.
h i
Proposizione 145 Se C 6= ∅ gli spazi Tpq (V) e Hom Tqp (V) , Tq−qp−p
(V) sono isomorfi.

Dimostrazione È una banale conseguenza della proposizione 144.

Proposizione 146 Lo spazio T11 (V) delle applicazioni bilineari da V∗ × V in IK è isomorfo allo spazio
Hom (V, V) degli endomorfismi di V.

Dimostrazione Assegnati i quattro interi p = 1, q = 1, p = 0, q = 1 costruiamo la classe C = Cp ∪ Cq di


tutte le contrazioni semplici esterne
Chk : T21 (V) → T10 (V) (11.58)
p p q q
© hª
Dalla proposizione 141 si ha Card C = 0, C = ∅ e Card C = 1, C = Ck con (cfr. (11.29))

h = 2, k=1 (11.59)
© 2ª
Dalla proposizione 143 discende infine c = C = C1 = C. Essendo C 6= ∅ dalla proposizione 145 si
ha che T11 (V) e Hom (V, V) sono isomorfi. Si noti che la contrazione C soddisfacente la (11.49) è una
11.2. PRODOTTO DUALE TRA TENSORI. 101

soltanto; il corrispondente isomorfismo J può dunque riguardarsi come canonico, proprietà del resto attribuita
f nella proposizione 133.
all’applicazione (·)
Siano
¡ ¢
L = Lii j1 ei1 ⊗ ej1 ∈ T11 (V) ,
M = M i2 ei2 ∈ T10 (V) , (11.60)
¡ ¢
L ⊗ M = Lii j1 M i2 ei1 ⊗ ei2 ⊗ ej1 ∈ T21 (V) .

Applicando la contrazione C = C21 al prodotto tensore dei due si ottiene


­ ®
C21 (L ⊗ M) = ej1 , ei2 Lii j1 M i2 ei1
= Lii j1 M i2 δ ji21 ei1
= Lii j1 M j1 ei1 ∈ T10 (V) . (11.61)

Proposizione 147 Se C 6= ∅, ogni contrazione C ∈C caratterizza una applicazione lineare:


h i
JC L ∈ Hom Tqp (V) , Tp−p
q−q (V) , (11.62)

generata dal tensore L ∈ Tpq (V). La classe di tali applicazioni lineari ottenute al variare di C in C può essere
quindi identificata con il tensore L.

Dimostrazione È conseguenza della proposizione 144.


Si noti che il tensore L ∈ Tpq (V) può essere identificato con la classe JC L di applicazioni lineari ognuna delle
quali è caratterizzata da una contrazione C di C. Esclusi casi analoghi a quello esaminato nella proposizione
146 in cui Card C = 1, l’isomorfismo J non può riguardarsi come canonico.
Dimostriamo ora la seguente

Proposizione 148 Lo spazio duale di Tqp (V) è Tpq (V).

Dimostrazione Dalla definizione di spazio duale si ha


¡ q ¢∗ £ ¤
Tp (V) = Hom Tqp (V) , IK . (11.63)
£ ¤
Dalla proposizione 145, posto p = p, q = q si ha che gli spazi Tpq (V) e Hom Tqp (V) , IK sono isomorfi in
quanto © 1 rp ª
cp = Crq+1 , ..., Cq+p 6= ∅,
n o (11.64)
cq = Cp+1 p+q
s1 , ..., Csq 6= ∅,

e dunque C 6= ∅; in questo caso (r1 , ..., rp ) è una permutazione di {1, ..., p} ed (s1 , ..., sq ) è una permutazione
di {1, ..., q}, il che configura le contrazioni ((p, p) , (q, q)) − esterne C ∈ C come contrazioni complete del
tensore [L ⊗ M] ∈ Tp+q q+p (V), ovvero
C :Tp+q
q+p (V) → IK. (11.65)
p
£ q ¤
Ricordando la proposizione 147 identifichiamo Tq (V) con la classe delle applicazioni lineari Hom Tp (V) , IK ,
da cui, tenendo presente la (11.63), ¡ q ¢∗
Tp (V) = Tpq (V) . (11.66)
£ ¤
Lo spazio duale Tpq (V) è quindi quello delle applicazioni lineari JC L ∈ Hom Tqp (V) , IK .

11.2 Prodotto duale tra tensori.


£ ¤
Dalla proposizione 144 gli spazi Tpq (V) e Hom Tqp (V) , IK risultano isomorfi, con l’isomorfismo JC subordi-
nato alla scelta di una contrazione completa (vedi definizione inclusa nella proposizione 148), ovvero di una
contrazione ((p, p) , (q, q)) − esterna tra le p!q! della classe C.
Dati L ∈ Tpq (V), L∗ ∈ Tqp (V) e C ∈ C, diremo prodotto duale dei due l’applicazione

h·, ··iC : (L∗ , L) ∈ Tqp (V) × Tpq (V) 7→ hL∗ , LiC ∈ IK, (11.67)

definita da
hL∗ , LiC := C (L ⊗ L∗ ) , (11.68)
102 CAPITOLO 11. ANCORA SUI TENSORI

ovvero identificando l’isomorfismo


£ ¤
JC : Tpq (V) → Hom Tqp (V) , IK , (11.69)

tale che
(JC L) L∗ = C (L ⊗ L∗ ) . (11.70)
Analogamente a JC , l’operazione h·, ··iC è definita al variare di C in C. l’applicazione (11.68) rispetta
ovviamente le (10.57), (10.58), (10.59), (10.60).
Consideriamo u ∈ T10 (V) , u∗ ∈ T01 (V). Gli insiemi cp , cq sono dati da:
© ª
cp = c1 = {Cr11 } = C11 ,
(11.71)
cq = c0 = ∅,
© ª
da cui C = C11 Il prodotto duale di u e u∗ è dato da

hu∗ , ui = C11 (u ⊗ u∗ )
= ui u∗j δ ji = ui u∗i
= Tr (u ⊗ u∗ ) . (11.72)

Si noti che esiste un solo prodotto duale per T1+0


0+1 (V) in conseguenza del fatto che esiste una sola contrazione
((1, 1) , (0, 0)) − esterna.
Dati L ∈ Tpq (V), L∗ ∈ Tqp (V) esistono p!q! contrazioni ((p, p) , (q, q)) − esterne (cfr. proposizione 148).
Scelte le contrazioni
Cp = C1q+1 ◦ · · · ◦ Cpq+p ,
(11.73)
Cq = Cp+1
1 ◦ · · · ◦ Cp+q
q ,
si ha

hL∗ , LiC = Cp [Cq (L ⊗ L∗ )]


³ ´³ ´
jq j j
= Li1 ...ip j1 ....jq L∗ip+1 ...ip+q jq+1 ....jq+p δ jip+1
1
· · · δ ip+q δ i1q+1 · · · δ ipq+p
= Li1 ...ip j1 ....jq L∗j1 ....jq i1 ...ip . (11.74)
Capitolo 12

TENSORI CARTESIANI

12.1 Tensori sugli spazi vettoriali dotati di prodotto scalare.


In questa sezione si prenderanno in esame spazi vettoriali finito dimensionali costruiti sul campo dei reali
e dotati di un prodotto scalare σ (si vedano le (7.2), (7.3), (7.4)) non degenere (7.46) a valori in IR. Per
semplicità di scrittura introduciamo la notazione
σ (u, w) ≡ u · w. (12.1)
Il risultato importante che verrà stabilito è che, qualora sullo spazio vettoriale V sia definito un particolare
prodotto scalare, allora è possibile identificare tutti i tensori dello stesso ordine totale facendo uso di opportuni
isomorfismi canonici (se T ∈ Tpq (V), il suo ordine totale è (p + q)).
³ ´
Sia B = (b1 , ..., bn ) una base dello spazio vettoriale V. Diremo che B̃ = b e 1 , ..., b
e n è la base reciproca
rispetto alla B se è rispettata la seguente condizione
e i · bj = δ i ,
b i, j = 1, ..., n. (12.2)
j

Con le due proposizioni seguenti andiamo a stabilire che B̃ è una base di V e che, assegnata la base B, la
sua reciproca in V esiste ed è unica.
Proposizione 149 Sia B = (b1 , ..., bn ) una base di uno spazio vettoriale V dotato di un prodotto scalare. La
sua reciproca B̃ esiste ed è unica.
Dimostrazione Esistenza. Dimostreremo l’esistenza del vettore b e 1 ; l’esistenza degli altri n − 1 vettori di
B̃ si dimostra in maniera del tutto analoga. Sia U il sottospazio di V (vedi (1.20), (1.21), (1.22)) generato dai
vettori b2 , ..., bn ed U⊥ il suo complemento ortogonale in V (cfr. proposizione 89). Essendo dim U =n − 1,
dalla proposizione 105 discende che
dim U⊥ = dim V− dim U =1. (12.3)
Esiste quindi un vettore non nullo u ∈ U⊥ . Poiché b1 ∈ / U, esso non è ortogonale ad u rispetto al prodotto
scalare definito in V:
b1 · u 6=0. (12.4)
Definendo
u
e 1 :=
b , (12.5)
b1 · u
tale vettore rispetta evidentemente la (12.2) per i = 1.
Unicità. Assumiamo che esistano due basi reciproche B̃, C˜ rispetto alla base B. Dalla (12.2) si ha
e i · bj = δ i ,
b i, j = 1, ..., n,
j
(12.6)
ei
c · bj = δ ij , i, j = 1, ..., n,
ovvero ³ ´
bei − e
ci · bj = 0, i, j = 1, ..., n. (12.7)
e i −e
Il vettore b ci è quindi ortogonale a tutti i vettori di V: dalla proposizione 111 discende che esso è il vettore
nullo, ovvero che
ei = e
b ci , i = 1, ..., n. (12.8)

103
104 CAPITOLO 12. TENSORI CARTESIANI

Proposizione 150 Sia B una base di uno spazio vettoriale V dotato di un prodotto scalare. La sua reciproca
B̃ è una base di V.

Dimostrazione Consideriamo la combinazione lineare


e j = 0,
αj b (12.9)

ed eseguiamo il prodotto scalare con bi ; la (12.2) porge

αj be j · bi = αj δ j = αi = 0, i = 1, 2, ..., n, (12.10)
i
n o
da cui risulta che l’insieme b e n è formato da vettori linearmente indipendenti. Poiché la cardinalità
e 1 , ..., b
di tale insieme è n, dalla proposizione 19 discende che B̃ è una base di V.
Quale sia la relazione tra la base reciproca e la base duale è chiarita dalla seguente proposizione.

Proposizione 151 Sia V uno spazio vettoriale dotato di un prodotto scalare. Esiste un unico isomorfismo

g : V → V∗ ,

indotto dal prodotto scalare e tale che

hg (v) , wi = v · w, v, w ∈ V. (12.11)
¡ ¢ ³ ´ ³ ´
Se B = (b1 , ..., bn ) è una base di V, D = b1 , ..., bn è la base duale e B̃ = b̃1 , ..., b̃n , D̃ = b en
e 1 , ..., b
sono le relative basi reciproche si ha
³ ´
e j = bj , j = 1, ..., n,
g b (12.12)
ej ,
g (bj ) = b j = 1, ..., n. (12.13)

Dimostrazione Occorre dimostrare che g è un isomorfismo, ovvero che g stabilisce una corrispondenza
biunivoca tra V ed il suo duale V∗ . Che g sia una trasformazione lineare discende immediatamente dagli
assiomi (7.3), (7.4), i quali configurano il secondo membro della (12.11) come una applicazione lineare in v.
Inoltre g è iniettiva; ponendo infatti nella (12.11) gu =gv si ottiene

g (u) =g (v) ∀w ∈ V⇒ u · w = v · w ⇒ (u − v) · w =0 ∀w ∈V ⇒u − v = 0. (12.14)

Infine, dalla proposizione 39, essendo dim V = dim V∗ e dim ker g = 0 si ha

dim Im g = dim V∗ , (12.15)

ovvero, tenendo presente la proposizione 32


Im g = V∗ . (12.16)
Si è dimostrato in questo modo che g è un isomorfismo, essendo nel contempo una applicazione lineare iniettiva
e suriettiva.
Dalla definizione di base reciproca si ha
be i · bj = δ i , (12.17)
j

e dalla definizione di base duale si ha ­ i ®


b , bj = δ ij . (12.18)
Combinando le due e tenendo presente la (12.11) si ottiene
D ³ ´ E ­ ®
g be i , bj = b e i · bj = bi , bj . (12.19)

Essendo g un isomorfismo e B̃ una base per V, dalla proposizione 38 la sua immagine sotto g è una base per V∗
in quanto esso conserva l’indipendenza lineare dei vettori; alla luce di questa considerazione, dalla equazione
precedente discende immediatamente la (12.12). Dalla simmetria del prodotto scalare si ha inoltre
D E D E
b e i = g (bj ) , b
e i · bj = bj · b ei = b ei = δi ,
ej , b (12.20)
j

da cui, con considerazioni analoghe a quelle che hanno condotto alla (12.12), discende la (12.13).
12.1. TENSORI SUGLI SPAZI VETTORIALI DOTATI DI PRODOTTO SCALARE. 105

Come conseguenza della proposizione precedente, assegnando un particolare prodotto scalare in V, è


possibile introdurre un isomorfismo canonico che identifichi V con il suo duale V∗ ; in tale ottica, un vettore v
può riguardarsi come una funzione lineare da V in IR:
hv, ui ≡ v · u. (12.21)
Grazie all’introdotto isomorfismo canonico la base reciproca si identifica con la base duale ed il prodotto scalare
con il prodotto duale. Occorre tuttavia tenere ben presente che l’identificazione introdotta è subordinata alla
scelta di un particolare prodotto scalare, e che non è dunque lecito confondere V con il suo duale sino a quando
un tale prodotto scalare non sia stato assegnato.
Dalla proposizione 144 all’automorfismo identità dello spazio V
1I : u ∈V 7→1I (u) = u ∈V, (12.22)
corrisponde un tensore di T11 (V). Se V è dotato di un prodotto scalare abbiamo visto che esso può essere
identificato con il suo duale V∗ attraverso l’introduzione dell’isomorfismo g. In questo caso all’automorfismo
identico di V corrisponde anche un tensore di T2 (V), detto tensore metrico di V. Diremo tensore metrico
dello spazio vettoriale V l’applicazione
M : V × V →IR, (12.23)
definita da
M (u, v) := hg (u) , vi = u · v ∀u, v ∈ V. (12.24)
Ancora dalla proposizione 144 gli spazi T11 (V) e Hom (V∗ , V∗ ) sono isomorfi. All’automorfismo identico
di V∗ corrisponde quindi un tensore di T11 (V); detto H tale tensore si ha
H (u∗ , v) = hu∗ , vi , u∗ ∈ V∗ , v ∈ V. (12.25)
Dalla proposizione 151 si ha ­ ®
hu∗ , vi = u∗ , g−1 (v∗ ) . (12.26)
∗ ∗
Il tensore H può quindi riguardarsi come una applicazione T2 (V) 3 H :V × V → IR:
­ ®
H (u∗ , v∗ ) = u∗ , g−1 (v∗ ) . (12.27)
Essendo tuttavia ­ ∗ −1 ∗ ®
u , g (v ) = u · v, (12.28)
ne discende che H = M. All’automorfismo identico di V corrispondono in definitiva un tensore di T11 (V),
un tensore di T2 (V) ed ¡un tensore¢ di T2 (V) , ovvero tre tensori identità dello stesso ordine totale 2. Se
B = (b1 , ..., bn ) e B∗ = b1 , ..., bn sono basi duali di V e V∗ , operando nuovamente l’abuso di notazione
che al capitolo precedente ha condotto ad identificare il prodotto tensore di due vettori con una applicazione
lineare di V in se, al tensore metrico competono le rappresentazioni equivalenti
M = gij bi ⊗ bj , (12.29)
M= δ ij bi j
⊗b , (12.30)
ij
M = g bi ⊗ bj , (12.31)
con ­ ¡ ¢®
g ij = bi , g−1 bj = bi · bj ,
(12.32)
gij = hg (bi ) , bj i = bi · bj ,
ed ovviamente g ij = (gij )−1 .
Sia
T = T i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq ∈ Tpq (V) . (12.33)
Diremo trasformazione covariante la applicazione
Gpq : Tpq (V) → Tp+q (V) , (12.34)
tale che ¡ ¢
Gpq (T) : = T i1 ...ip j1 ...jq g (ei1 ) ⊗ · · · ⊗ g eip ⊗ ej1 ⊗ · · · ⊗ ejq , (12.35)
∀T ∈ Tpq(V).
Ricordando che l’isomorfismo g introdotto nella proposizione 151 è una trasformazione da T1 (V) in T1 (V),
vale evidentemente l’identificazione
g = G10 . (12.36)
Sia T ∈ Tpq (V) rappresentato come nella definizione precedente. Diremo che la (12.35) è la rappresen-
tazione puramente covariante di T.
106 CAPITOLO 12. TENSORI CARTESIANI

Proposizione 152 Valgono le seguenti


e i = g ij (bj ) ,
b (12.37)
¡ ¢
e i = gij bj .
b (12.38)
¡ 1 ¢
Dimostrazione
³ Consideriamo
´ una base B = (b1 , ..., bn ) di V. e la sua duale D = b , ..., bn , base di
V∗ . Se D̃ = b̃1 , ..., b̃n è la base di V∗ reciproca di D, ricordando la (12.13) si ottiene

gij bj = hg (bi ) , bj i bj
£ ¤
= bj ⊗ bj (g (bi ))
£ ¤³ ´
= bj ⊗ bj b ei
³ ´
=M b ei . (12.39)

In definitiva si ottiene la (12.38).


In modo del tutto analogo, ricordando la (12.12) si ha
­ ¡ ¢ ®
g ij (bj ) = g−1 bi , bj bj
£ ¤¡ ¡ ¢¢
= bj ⊗ bj g−1 bi
£ ¤ ³ i´
= bj ⊗ bj b e
³ ´
=M b ei , (12.40)

da cui la (12.37).
Ricaviamo ora le componenti della trasformazione covariante Gpq . Dalla (12.13) la (12.35) può riscriversi
come
Gpq (T) = T i1 ...ip j1 ...jq b e i ⊗ bj1 ⊗ · · · ⊗ bjq ,
ei ⊗ · · · ⊗ b (12.41)
1 p

ovvero, utilizzando la (12.38)


Gpq (T) = Tk1 ...kp j1 ...jq bk1 ⊗ · · · ⊗ bkp ⊗ bj1 ⊗ · · · ⊗ bjq , (12.42)
con
Tk1 ...kp j1 ...jq = gk1 i1 · · · gkp ip T i1 ...ip j1 ...jq . (12.43)
La precedente uguaglianza mostra le componenti della trasformazione covariante Gpq :
il suo effetto è quello di
i1 ...ip p p
abbassare i primi p indici delle componenti T j1 ...jq del tensore T. I tensori T ∈ Tq (V) e Gq (T) ∈Tp+q (V)
hanno le stesse componenti se rappresentati nelle basi prodotto:
© ª
bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n,
n o (12.44)
b e i ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n.
ei ⊗ · · · ⊗ b
1 p

Utilizzando invece le basi prodotto usuali per Tpq (V) e Tp+q (V) :
© ª
bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n,
© i ª (12.45)
b 1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n,
le componenti sono legate come visto nella (12.43).
Dimostriamo ora che la trasformazione covariante Gpq è un isomorfismo.
Proposizione 153 La trasformazione covariante Gpq è un isomorfismo.
Dimostrazione La linearità di Gpq discende immediatamente dalla proposizione 151.
Proviamo ora l’iniettività. Ponendo Gpq (T) = 0 nella (12.35) si ottiene
¡ ¢
0 = T i1 ...ip j1 ...jq g (ei1 ) ⊗ · · · ⊗ g eip ⊗ ej1 ⊗ · · · ⊗ ejq , (12.46)
ovvero, ricordando la (10.72):
¡ ¢
0 eh1 , ..., ehp , ek1 , ..., ekq (12.47)
i1 ...ip
­ ¡ ¢ ® ­ j1 ® ­ ®
=T j1 ...jq hg (ei1 ) , eh1 i · · · g eip , ehp e , ek1 · · · ejq , ekq .
12.1. TENSORI SUGLI SPAZI VETTORIALI DOTATI DI PRODOTTO SCALARE. 107

Dalla (12.38) si ha inoltre


j
T i1 ...ip j1 ...jq gi1 h1 · · · gip hp δ jk11 · · · δ kqq = 0, (12.48)
ovvero, ricordando che gij è non singolare (è la matrice associata ad un prodotto scalare non degenere)

T i1 ...ip k1 ....kq gi1 h1 · · · gip hp g h1 m1 · · · g hp mp


m
= T i1 ...ip k1 ....kq δ m
i1 · · · δ ip
1 p

= T m1 ...mp k1 ....kq = 0, (12.49)

da cui T = 0. Gpq è quindi iniettiva.


Essendo ker Gpq = 0 ed ovviamente dim Tpq (V) = dim Tq+p (V), combinando le proposizioni 39, 32 si ottiene

Im Gpq = Tq+p (V) , (12.50)

da cui la suriettività. Gpq è quindi un isomorfismo.


Poiché Gpq è un isomorfismo, esiste ed è unico il suo isomorfismo inverso
¡ p ¢−1
Gq : Tq+p (V) → Tpq (V) , (12.51)

tale che £ p ¤−1 ¡ ¢ ¡ ¢


Gq (U) := Ui1 ...ip j1 ...jq g−1 bi1 ⊗ · · · ⊗ g−1 bip ⊗ bj1 ⊗ · · · ⊗ bjq , (12.52)
∀U ∈Tq+p (V). Analogamente a quanto fatto in precedenza ricaviamo ora le componenti dell’isomorfismo
¡ p ¢−1
Gq . Sia U ∈Tq+p (V) rappresentato come

U = Ui1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq . (12.53)

Dalla (12.12) la (12.52) può essere riscritta come


£ p ¤−1
Gq (U) = Ui1 ...ip j1 ...jq b e ip ⊗ bj1 ⊗ · · · ⊗ bjq ,
e i1 ⊗ · · · ⊗ b (12.54)

ovvero, dalla (12.37)


£ p ¤−1
Gq (U) = U k1 ...kp j1 ...jq bk1 ⊗ ... ⊗ bkp ⊗ bj1 ⊗ ... ⊗ bjq , (12.55)

con
k1 ...kp
U j1 ...jq = g k1 i1 · · · g kp ip Ui1 ...ip j1 ...jq . (12.56)
¡ ¢−1
Dalla precedente uguaglianza si possono vedere le componenti dell’isomorfismo Gpq : esso ha l’effetto di
alzare i primi p indici delle componenti Ui1 ...ip j1 ...jq del tensore U ∈ Tp+q (V) sul quale opera.
Componendo Gpq con la sua inversa è possibile definire isomorfismi tra spazi tensoriali dello stesso ordine
totale.
Dati quattro interi non negativi h, k, p, q tali che

h + k = p + q, (12.57)
¡ ¢−1
l’applicazione Ghk ◦ Gpq
¡ h ¢−1
Gk ◦ Gpq : Tpq (V) → Thk (V) , (12.58)
rende isomorfi gli spazi Tpq (V) e Thk (V). Si ha infatti

Gpq : Tpq (V) → Tp+q (V) , (12.59)

e ¡ h ¢−1
Gk ◦ Gpq : Tp+q (V) → Thp+q−h (V) = Thk (V) . (12.60)
£ ¤−1 ¡ p ¢
Sia T ∈Tpq (V). Diremo che il tensore Gp+q0 Gq (T) ∈ Tp+q (V) è la rappresentazione puramente
controvariante di T.
Consideriamo ad esempio

T = T i1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq ∈ Tpq (V) . (12.61)


108 CAPITOLO 12. TENSORI CARTESIANI

Dalle (12.35), (12.52), la sua rappresentazione puramente controvariante è


£ p+q ¤−1 ¡ p ¢
G0 Gq (T)
¡ ¡ ¢¢ ¡ ¢ ¡ ¢
= T i1 ...ip j1 ...jq g−1 (g (bi1 )) ⊗ · · · ⊗ g−1 g bip ⊗ g−1 bj1 ⊗ · · · ⊗ g−1 bjq
¡ ¢ ¡ ¢
= T i1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ g−1 bj1 ⊗ · · · ⊗ g−1 bjq
= T i1 ...ip h1 ...hq bi1 ⊗ · · · ⊗ bip ⊗ bh1 ⊗ · · · ⊗ bhq . (12.62)
¡ ¢−1 p
Combinando le (12.43), (12.56) si deduce che l’effetto dell’isomorfismo Ghk ◦Gq è quello di alzare i primi h−p
indici di covarianza di T ∈Tpq (V) se h > p, ovvero quello di abbassare gli ultimi p − h indici di controvarianza
di T se h < p. Sia ad esempio

T = T i1 ...ip j1 ...jq bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq ∈ Tpq (V) . (12.63)


£ ¤−1 ¡ p ¢
Al tensore Ghk Gq (T) compete la rappresentazione
£ h ¤−1 ¡ p ¢
Gk Gq (T) = T i1 ...ik j1 ...jk bi1 ⊗ · · · ⊗ bih ⊗ bj1 ⊗ · · · ⊗ bjk ∈ Thk (V) , (12.64)

con

1.
T i1 ...ik j1 ...jk = T i1 ...ip m1 ...mh−p j1 ...jk g ip+1 m1 · · · g ih mh−p , (12.65)
se h > p;
2.
T i1 ...ik j1 ...jk = T i1 ...ih m1 ...mp−h jp−h+1 ...jk gm1 j1 · · · gmp−h jp−h , (12.66)
se h < p.

Sia ora T ∈T12 (V). rappresentato come

T = T i hk ei ⊗ eh ⊗ ek . (12.67)

La rappresentazione covariante (in T3 (V)) di T si ottiene applicando alla precedente G12

G12 (T) = T i hk gij ej ⊗ eh ⊗ ek = Tjhk ej ⊗ eh ⊗ ek , (12.68)

e la sua rappresentazione controvariante (in T3 (V)) è


£ ¤−1 ¡ 1 ¢
G30 G2 (T) = Tjhk g jl g hm g kn el ⊗ em ⊗ en = T lmn el ⊗ em ⊗ en . (12.69)

La rappresentazione mista in T21 (V) è infine data da


£ 2 ¤−1 ¡ 1 ¢
G1 G2 (T) = Tjhk ejl ehm el ⊗ em ⊗ ek = T lm k el ⊗ em ⊗ ek . (12.70)

Sia T ∈T22 (V). Esso ha la rappresentazione

T = T ij hk ei ⊗ ej ⊗ eh ⊗ ek . (12.71)

La sua rappresentazione puramente covariante si ottiene applicando G22 : T22 (V) → T4 (V):

G22 (T) = T ij hk gil gjm el ⊗ em ⊗ eh ⊗ ek = Tlmhk el ⊗ em ⊗ eh ⊗ ek ,


¡ ¢−1
e la sua rappresentazione puramente controvariante si ottiene dalla precedente applicando G40 :
£ 4 ¤−1 ¡ 2 ¢
G0 G2 (T) =Tlmhk g li g mj g rh g sk ei ⊗ ej ⊗ er ⊗ es
= T ijrs ei ⊗ ej ⊗ er ⊗ es . (12.72)

Una volta che lo spazio V sia stato dotato di un prodotto scalare, la proposizione 151 legittima l’intro-
duzione dell’isomorfismo g che riguardiamo come canonico. La sua notazione può dunque essere soppressa
senza nessuna ambiguità e V può essere identificato con il suo duale; un vettore u si identifica con una funzione
lineare da V in IR:
hu, vi = u · v, (12.73)
12.2. CONTRAZIONI. 109

ed il prodotto duale viene sostituito con il prodotto scalare in accordo con la (12.73).
In conseguenza di ciò il simbolo Gpq può essere soppresso dalle (12.35), (12.52); gli spazi tensoriali dello
stesso ordine totale h vengono quindi identificati con lo stesso oggetto

Th (V) = Th−1
1 (V) = · · · = T1h−1 (V) = Th (V) . (12.74)

In virtù di questa identificazione definire un tensore in uno spazio vettoriale dotato di prodotto scalare equivale
a specificarne l’ordine totale senza nessuna distinzione tra ordini di controvarianza e di covarianza; gli ordini
di covarianza e controvarianza vanno specificati separatamente soltanto quando si sceglie una particolare
rappresentazione del tensore. Considerato ad esempio un tensore A di ordine totale h, è possibile esprimere
A nelle forme equivalenti
A = T i1 ...ih bi1 ⊗ · · · ⊗ bih ,
A = T i1 ...ih−1 jh bi1 ⊗ · · · ⊗ bih−1 ⊗ bjh ,
.. (12.75)
.
A = Tj1 ....jh bj1 ⊗ · · · ⊗ bjh ,
dove la prima è la rappresentazione puramente controvariante mentre l’ultima è la rappresentazione puramente
covariante e quelle intermedie sono tutte le possibili rappresentazioni miste.Tutte le rappresentazioni (12.75)
sono legate come mostrato dalle (12.43), (12.56), (12.65) e (12.66).

12.2 Contrazioni.
È possibile ridefinire l’operatore contrazione esaminato al numero (11.1) nel caso in cui lo spazio vettoriale V
sia dotato di un prodotto scalare.
Sia T un tensore semplice di ordine totale s > 2 nella forma

T = u1 ⊗ · · · ⊗ us . (12.76)

Diremo contrazione semplice una applicazione

Cij : Ts (V) → Ts−2 (V) , 1 ≤ i < j ≤ s, (12.77)

definita da
Cij (T) := (ui · uj ) [u1 ⊗ · · · ⊗ ui−1 ⊗ ui+1 ⊗ · · · ⊗ uj−1 ⊗ uj+1 ⊗ · · · ⊗ us ] . (12.78)
L’operatore Cij può essere esteso per linearità a tutti i tensori di ordine totale s. Così ad esempio se
T ∈Ts (V) è rappresentato come
T = Ti1 ...is ei1 ⊗ · · · ⊗ eis , (12.79)
dalla (12.78) e ricordando che g ij = ei · ej il tensore Cjk (T) è dato da
¡ ¢
Cjk (T) = Ti1 ...is Cjk ei1 ⊗ · · · ⊗ eis
¡ ¢¡ ¢
= Ti1 ...is eij · eik ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis
ij ik
=g Ti1 ...is ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis
= T i1 ...ij−1 ik ij+1 ...ik ...is ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis . (12.80)

Si noti che nel dare la definizione (12.78) si è tenuto conto della definizione di contrazione semplice data
al numero 11.1 e delle considerazioni svolte alla fine della precedente sezione. Valgono ovviamente tutte le
proprietà stabilite precedentemente riguardo alle contrazioni semplici.
Consideriamo ora due tensori A, B di ordine totale s e sia

A ⊗ B = Ai1 ...is Bis+1 ...i2s ei1 ⊗ · · · ⊗ ei2s ∈ T2s (V) , (12.81)

il loro prodotto tensore. Tenendo presente la definizione di contrazione esterna (si veda il numero 11.1) le
contrazioni complete di [A ⊗ B] sono le contrazioni (s, s) − esterne

C :T2s (V) → IR, (12.82)

aventi la forma
C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis (2s) , (12.83)
dove (i1 , ..., is ) è una permutazione di {1, ..., s}. La cardinalità della classe C risulta banalmente essere s!.
110 CAPITOLO 12. TENSORI CARTESIANI

12.3 Prodotto scalare tra tensori.


Iniziamo con il dimostrare la seguente

Proposizione 154 Siano A e B due tensori di Tpq (V). L’applicazione


D £ ¤−1 ¡ p ¢E
A · B := Gpq A, Gp+q
0 Gq (B) , (12.84)

è un prodotto scalare definito su Tpq (V).

Dimostrazione L’applicazione A · B definita dalla (12.84) è un prodotto scalare se verifica gli assiomi
¡ ¢−1
(7.2), (7.3), (7.4). Il fatto che valgano le (7.3), (7.4) discende banalmente dalla linearità delle Gpq , Gp+q
0 e
dalle (10.57), (10.58):
D £ ¤−1 ¡ p ¢E
(A + B) · C = Gpq (A + B) , Gp+q 0 Gq (C) (12.85)
D £ ¤ −1 ¡ ¢E D £ ¤−1 ¡ ¢E
= Gpq A, Gp+q
0 Gpq (C) + Gpq B, Gp+q
0 Gpq (C)
= (A · C) + (B · C) ;
D £ ¤−1 ¡ p ¢E
(λA · B) = Gpq (λA) , G0p+q Gq (C) (12.86)
D £ ¤−1 ¡ p ¢E
= λGpq (A) , G0p+q Gq (C)
D £ ¤−1 ¡ p ¢E
= λ Gpq (A) , Gp+q
0 Gq (C) = λ (A · B) .

Dalle (12.35), (12.52) si ha

Gpq (A) , Gpq (B) ∈ Tp+q (V) ,


£ p+q ¤−1 ¡ p ¢ £ p+q ¤−1 ¡ p ¢ (12.87)
G0 Gq (A) , G0 Gq (B) ∈ Tp+q (V) ,

da cui D £ ¤−1 ¡ p ¢E D p £ p+q ¤−1 ¡ p ¢E


Gpq (A) , Gp+q
0 Gq (B) = Gq (B) , G0 Gq (A) , (12.88)

ovvero A·B = B·A; l’assioma (7.2) è rispettato. l’applicazione A·B definita dalla (12.84) è dunque un prodotto
scalare.
Tenendo presente che i tensori dello stesso ordine totale possono identificarsi in virtù del prodotto scalare
introdotto su V, dalla definizione (11.68) assegnare un prodotto scalare su Tpq (V) si riduce alla scelta di una
contrazione completa
C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis 2s , (12.89)
con s = p + q. Quindi se A,B sono due tensori di ordine totale s, ricordando la (12.80) si definisce un prodotto
scalare come
(A · B)C := C (A ⊗ B) . (12.90)
L’ultima definizione è equivalente a quella data nella proposizione precedente qualora si operi l’identificazione
di V con il suo duale sopprimendo la notazione di Gpq .
Con la scelta
C = C1 (s+1) ◦ C2 (s+2) ◦ · · · ◦ Cs 2s , (12.91)
il prodotto scalare di due tensori A e B dello stesso ordine totale s è esprimibile nelle forme equivalenti

A·B=
= Aj1 ...js Bj1 ...js
= Ai1 ...is−1 js g js is Bi1 ...is (12.92)
..
.
= Aj1 ...js B j1 ...js .

Proposizione 155 Si consideri lo spazio tensoriale T2s (V). Se il prodotto scalare definito in V è non
degenere, allora lo è anche il prodotto scalare (12.90) definito in T2s (V).
12.3. PRODOTTO SCALARE TRA TENSORI. 111

Dimostrazione Siano A, B ∈ T2s (V). Il prodotto scalare (12.90) è non degenere se

∀B, (A · B)C = 0 ⇒ A = 0. (12.93)

Eseguiamo il prodotto scalare A · B con la contrazione completa C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis 2s ; dalle
(12.78), (12.80) si ha

(A · B)C = C (A ⊗ B)
= Ai1 ...is B is+1 ...i2s gis+1 ij1 · · · gi2s ijs
= Ai1 ...is Bij1 ...ijs ∀B ⇒ A = 0. (12.94)
112 CAPITOLO 12. TENSORI CARTESIANI
Capitolo 13

TENSORI DOPPI

13.1 Premessa.
Andremo ora a restringere l’attenzione alla classe dei tensori di ordine totale 2 definiti su uno spazio vettoriale
V di dimensione finita costruito sul campo IR e dotato di un prodotto scalare simmetrico, definito positivo a
valori in IR. Salvo diversa specifica sarà dim V =3.
Dalle proposizioni (97), (98) l’introdotto prodotto scalare induce una norma euclidea in V la cui immagine
corrisponde al modulo del vettore v ∈ V (cfr. proposizione 97).
Dalla proposizione 102 esiste in V almeno una base ortonormale che denoteremo con B = (e1 , e2 , e3 ), ovvero
esiste almeno una base tale che
ei · ej = δ ij , i, j = 1, 2, 3. (13.1)
In base a quanto visto nel Capitolo 12 verrà operata l’identificazione

T2 (V) ≡ T11 (V) ≡ T2 (V) , (13.2)

tra i tre spazi tensoriali dello stesso ordine totale 2. Dalla (10.93), un tensore T appartenente ad uno qual-
sivoglia dei tre spazi viene considerato in modo equivalente un endomorfismo di V, ovvero un elemento dello
spazio Hom (V, V). Tale ente sarà rappresentato come

T = T ij ei ⊗ ej ,
T = Tij ei ⊗ ej , (13.3)
i j
T= T j ei ⊗ e ,
¡ ¢
i, j = 1, 2, 3 dove R = e1 , e2 , e3 è la base di V reciproca di B (cfr. proposizione 151).
Ancora dalla proposizione 102 e dalla (13.1) il tensore metrico visto come endomorfismo di V assume la
forma
1I = δ ij ei ⊗ ej = ej ⊗ ej ,
1I = δ ij ei ⊗ ej = ej ⊗ ej , (13.4)
1I = δ ij ei ⊗ ej = ej ⊗ ej ,
nelle basi prodotto generate dalla introdotta base ortonormale B.
Dalle considerazioni precedenti, il prodotto tensore (o prodotto diadico) tra due vettori u, v ∈V è
l’endomorfismo di V
u ⊗ v :V → V, (13.5)
tale che
[u ⊗ v] (b) = (v · b) u, ∀b ∈V. (13.6)
Dalla proposizione 18, essendo B una base di V, i vettori u e v ammettono in tale base l’unica rappresentazione
u =uj ej , v =v j ej . La componente i, j della diade (u ⊗ v) nella base prodotto generata da B risulta dunque
essere
¡ ¢ ¡ ¢ £ ¤¡ ¢
[u ⊗ v] ei , ej = ei · [u ⊗ v] ej = ei · uh eh ⊗ v k ek ej
¡ ¢ ¡ ¢¡ ¢
= uh v k ei · [eh ⊗ ek ] ej = uh v k eh · ei ek · ej
= uh v k δ ih δ jk = ui v j , (13.7)

113
114 CAPITOLO 13. TENSORI DOPPI

ovvero, in notazione matriciale ⎛ 1 1 ⎞


u v u1 v 2 u1 v 3
⎝u2 v 1 u2 v 2 u2 v 3 ⎠ . (13.8)
u3 v 1 u3 v 2 u3 v 3

13.2 Orientazione per V.


Diremo prodotto vettore una applicazione

∧ : V × V → V, (13.9)

soddisfacente i seguenti assiomi

u ∧ v = −v ∧ u, (13.10)
(λu + µv) ∧ w = λ (u ∧ w) + µ (v ∧ w) , (13.11)
u· (u ∧ v) = 0, (13.12)
2
(u ∧ w) · (u ∧ w) = (u · u) (v · v) − (u · v) , (13.13)

∀u, v, w ∈V, ∀λ, µ ∈ IR.


Dato un prodotto vettore ∧, diremo prodotto triplo l’applicazione

· ◦ ∧ : {u, v, w} ∈ V × V × V 7→u · (v ∧ w) ∈ IR. (13.14)

Dagli assiomi (7.2), (7.3), (7.4), dalle (7.46), (7.48), (7.49) e dagli assiomi (13.10), (13.11), (13.12), (13.13)
discendono le seguenti proprietà del prodotto triplo:

u · (v ∧ w) = v · (w ∧ u) = w · (u ∧ v)
= −u · (w ∧ v) = −v · (u ∧ w) = −w · (v ∧ u) , (13.15)

(λu+µv) · (w ∧ x) = λ [u · (w ∧ x)] + µ [v · (w ∧ x)] , (13.16)

u · (v ∧ w) = 0 ⇔ u, v, w sono linearmente dipendenti, (13.17)


∀u, v, w, x ∈V, ∀λ, µ ∈ IR.
Il simbolo di permutazione od indicatore di Levi-Civita è l’applicazione

ε : (i, j, k) 7→ εij k ∈ {−1, 0, 1} , (13.18)

definita dalle

εij k = 0 se almeno due indici assumono lo stesso valore,


εij k = 1 se (i, j, k) è una permutazione pari di 1, 2, 3, (13.19)
k
εij = −1 se (i, j, k) è una permutazione dispari di 1, 2, 3..

Proposizione 156 Esistono in V due prodotti vettore soddisfacenti gli assiomi (13.10), (13.11), (13.12),
(13.13).

Dimostrazione Occorre dimostrare che

ei ∧ ej = ± εij k ek . (13.20)

Dalla identità
u = (u · eh ) eh , (13.21)
con u = e2 ∧ e3 e facendo uso delle (13.15), (13.17) si ha

e2 ∧ e3 = [(e2 ∧ e3 ) · eh ] eh = [(e2 ∧ e3 ) · e1 ] e1 , (13.22)

ed in modo del tutto analogo


e3 ∧ e1 = [(e2 ∧ e3 ) · e1 ] e2 ,
(13.23)
e1 ∧ e2 = [(e2 ∧ e3 ) · e1 ] e3 .
13.2. ORIENTAZIONE PER V. 115

Ricordando che ei · ej = δ ij , dalla (13.15) si ha

|e2 ∧ e3 |2 = |e3 ∧ e1 |2 = |e1 ∧ e2 |2 = [(e2 ∧ e3 ) · e1 ]2 . (13.24)

l’assioma (13.13) implica inoltre

|e2 ∧ e3 |2 = |e3 ∧ e1 |2 = |e1 ∧ e2 |2 = 1, (13.25)

da cui
[(e2 ∧ e3 ) · e1 ]2 = 1 ⇒ [(e2 ∧ e3 ) · e1 ] = ±1, (13.26)
ovvero la (13.20).
Esprimendo il prodotto triplo dei vettori della base ortonormale B in termini del simbolo di permutazione
si ottiene
ek · (ei ∧ ej ) = ± εij h eh · ek = εij h δ hk = εijk , (13.27)
mentre il prodotto vettore si può scrivere come
¡ ¢ ¡ ¢
u ∧ w = ui ei ∧ wj ej = ui wj (ei ∧ ej ) = ± εij h ui wj eh . (13.28)

Dalla (13.17) il prodotto triplo tra i vettori di una qualsivoglia base è necessariamente diverso da zero.
Due basi di V sono simili se i loro prodotti tripli hanno lo stesso segno. Si verifica facilmente che la
relazione di similarità è di equivalenza; essa stabilisce una partizione dell’insieme B delle basi di V in due
classi D ed S caratterizzate dal segno del prodotto triplo dei loro elementi. La scelta di una delle due coppie

V+ := (V, D), V− := (V, S), (13.29)

assegna una orientazione allo spazio vettoriale V.


Una base di V è positiva in V+ se il suo prodotto triplo è positivo, mentre è positiva in V− se il suo
prodotto triplo è negativo. L’assegnazione di una orientazione rimuove l’ambiguità del segno presente nelle
(13.20), (13.28), valendo il segno 00 +00 nel caso in cui una base sia positiva in V+ , e valendo il segno 00 −00
qualora la base considerata sia positiva in V− . In uno spazio vettoriale V dotato di una orientazione esiste
quindi un solo prodotto vettore soddisfacente gli assiomi (13.10), (13.11), (13.12), (13.13).
Siano u, v ∈V+ e sia
w = u ∧ v ∈ V+ ,
il loro prodotto vettore. Con semplici considerazioni di natura geometrica si può vedere che se

u · v = kuk kvk cos θ, |θ| < π (13.30)

allora il vettore w ha modulo


kwk = kuk kvk sin θ, |θ| < π, (13.31)
direzione perpendicolare alla giacitura individuata da u e v e verso determinato dal pollice di una mano destra
quando le restanti dita portino idealmente il vettore u a sovrapporsi al vettore v descrivendo la rotazione di
ampiezza θ < π. La mano è inizialmente aperta e giacente su un piano perpendicolare al piano contenente u
e v. La regola di esecuzione del prodotto vettore in V+ è nota come regola della mano destra; un modo
alternativo di orientare uno spazio vettoriale tridimensionale è quello di dichiarare che in esso il prodotto
vettore si esegue in questo modo.
Analogamente, siano u, v ∈V− e sia x = u ∧ v ∈V− il loro prodotto vettore di modulo

kxk = kuk kvk sin (−θ) = − kuk kvk sin θ, |θ| < π.

La direzione di x è ancora perpendicolare alla giacitura individuata da u e v, ma il suo verso è questa volta
indicato dal pollice di una mano sinistra quando le restanti dita portino idealmente il vettore u a sovrapporsi
al vettore v facendogli descrivere una rotazione di ampiezza −θ (θ è considerato positivo se la rotazione ad
esso corrispondente è antioraria). Quella appena descritta è la regola di esecuzione del prodotto vettore in V− ,
nota come regola della mano sinistra. Si noti la consistenza con quanto detto nella precedente osservazione
a proposito del segno del prodotto vettore in uno spazio vettoriale orientato.
È semplice verificare che il valore assunto dal prodotto triplo di u, v, w è il volume del parallelepipedo
u v w
avente i lati di lunghezza |u| , |v| , |w| ed orientati rispettivamente come le direzioni dei versori , , .
|u| |v| |w|
116 CAPITOLO 13. TENSORI DOPPI

13.3 Trasposto.
Sia T ∈ Hom (V, V). Diremo tensore trasposto di T l’applicazione

TT : V → V, (13.32)

tale che
u · T (v) = v · TT (u) , ∀u, v ∈V. (13.33)
Dimostriamo ora alcune importanti proprietà dell’applicazione trasposta.

Proposizione 157 Siano A, B ∈ Hom (V, V). Allora (λA + µB)T = λAT + µBT , ∀λ, µ ∈ IR.

Dimostrazione Dalla (13.33) si ha, ∀u, v ∈V


T
u · [λA + µB] (v) = v · [λA + µB] (u) . (13.34)

Dalla proposizione 85 e dalla (13.33) il primo membro può essere riscritto come

u · [λA + µB] (v)=u · λA (v) + u · µB (v)


¡ ¢ ¡ ¢
= λ v·AT (u) + µ v·BT (u)
£ ¤
= v · λAT + µBT (u) , (13.35)

ovvero
£ ¤ T
v · λAT + µBT (u)=v · [λA + µB] (u) , ∀u, v ∈V ⇒
T
⇒ λAT + µBT = (λA + µB) . (13.36)

T
Proposizione 158 Siano A, B ∈ Hom (V, V). Allora (AB) = BT AT .

Dimostrazione Dalla (13.33), ∀u, v ∈V


T
u · [AB] (v) = v · [AB] (u) . (13.37)

Dalla linearità di A e B , dall’assioma (7.2) ed applicando due volte la (13.33) il primo membro può riscriversi
come £ ¤
u · [AB] (v) = u · A (B (v)) = AT (u) ·B (v) = v· BT AT (u) , (13.38)
da cui
(AB)T = BT AT . (13.39)

T
Proposizione 159 Sia (u ⊗ v) ∈ Hom (V, V). Allora (u ⊗ v) = v ⊗ u.

Dimostrazione Dalla (13.33) si ha , ∀a, b ∈V


T
a · [u ⊗ v] (b) = b · [u ⊗ v] (a) . (13.40)

Dalla (13.6) e dalla linearità del prodotto scalare si stabilisce la catena di uguaglianze

a · [u ⊗ v] (b)=a · (v · b) u = (v · b) (a · u) = b· (u · a) v
= b· [v ⊗ u] (a) , (13.41)

da cui
T
v ⊗ u = (u ⊗ v) . (13.42)

Proposizione 160 Siano u, v ∈ V e T ∈ Hom (V, V). Allora

T (u ⊗ v) = T (u) ⊗ v, (13.43)
T
(u ⊗ v) T = u ⊗ T (v) . (13.44)
13.4. INVARIANTI. 117

Dimostrazione Consideriamo l’azione dell’applicazione T (u ⊗ v) su un vettore a ∈ V; dalla linearità di


T e dalla (13.6)

[T (u ⊗ v)] (a) =T ([u ⊗ v] (a)) = T ((v · a) u) = (v · a) T (u) = [T (u) ⊗v] (a) . (13.45)

Analogamente
¡ ¢ £ ¤
[(u ⊗ v) T] (a) = [u ⊗ v] (T (a)) = (v·T (a)) u = TT (v) ·a u = u⊗TT (v) (a) . (13.46)

Proposizione 161 Sia


Hom (V, V) 3 T = T ij bi ⊗ bj , (13.47)
in una base prodotto generata dalla base B = (b1 , b2 , b3 ) di V, e sia T la matrice associata a T (gli elementi
della matrice T sono ovviamente le componenti T ij di T). Allora gli elementi della matrice T T ottenuta
scambiando le righe di T con le sue colonne sono le componenti dell’applicazione TT nella base prodotto
bi ⊗ bj .
£ ¤ij £ ¤ij
Dimostrazione Sia TT = T T bi ⊗ bj . Tenendo presente la (13.33) le componenti T T sono date da
¡ ¢ ¡ ¢
TT bi , bj = bi · TT bj
¡ ¢ ¡ ¢
= bj · T bi = T hk bj · [bh ⊗ bk ] bi
¡ ¢¡ ¢
= T hk bj · bh bk · bi = T hk δ jh δ ik
= T ji , (13.48)
£ ¤ij
da cui T T = T ji .

13.4 Invarianti.
Proposizione 162 Siano (a, b, c) e (f , g, h) due basi di V e sia T ∈ Hom (V, V). Valgono allora le seguenti
T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c))
a · (b ∧ c)
T (f ) · (g ∧ h) + f · (T (g) ∧ h) + f · (g ∧ T (h))
= , (13.49)
f · (g ∧ h)

a · (T (b) ∧ T (c)) + T (a) · (b ∧ T (c)) + T (a) · (T (b) ∧ c)


a · (b ∧ c)
f · (T (g) ∧ T (h)) + T (f ) · (g ∧ T (h)) + T (f ) · (T (g) ∧ h)
= , (13.50)
f · (g ∧ h)
T (a) · (T (b) ∧ T (c)) T (f ) · (T (g) ∧ T (h))
= . (13.51)
a · (b ∧ c) f · (g ∧ h)
Dimostrazione Dimostriamo la terza uguaglianza; le prime due si dimostrano in modo del tutto analogo
richiamando essenzialmente le stesse proprietà. Siano ai , bi , ci le componenti dei vettori a, b, c nella base
ortonormale B = (e1 , e2 , e3 ). Il primo membro può essere riscritto come
T (a) · (T (b) ∧ T (c)) T (ei ) · (T (ej ) ∧ T (ek ))
= ai bj ck . (13.52)
a · (b ∧ c) a · (b ∧ c)
Dalla definizione del simbolo di permutazione e dalla (13.28) si ha
T (ei ) · (T (ej ) ∧ T (ek )) T (e1 ) · (T (e2 ) ∧ T (e3 ))
ai bj ck = εijk ai bj ck = ± [T (e1 ) · (T (e2 ) ∧ T (e3 ))] . (13.53)
a · (b ∧ c) a · (b ∧ c)
Se B è positiva in V+ vale il segno + con e1 · (e2 ∧ e3 ) = 1; se B è positiva in V− vale il segno − con
e1 · (e2 ∧ e3 ) = −1. Dunque, indipendentemente dalla orientazione per V si ha
T (a) · (T (b) ∧ T (c)) T (e1 ) · (T (e2 ) ∧ T (e3 ))
= . (13.54)
a · (b ∧ c) e1 · (e2 ∧ e3 )
118 CAPITOLO 13. TENSORI DOPPI

l’arbitrarietà nella scelta della base completa la dimostrazione.


La proposizione precedente permette la definizione dei tre scalari IT , IIT , IIIT associati al tensore T :
T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c))
IT = =: Tr T, (13.55)
a · (b ∧ c)
a · (T (b) ∧ T (c)) + T (a) · (b ∧ T (c)) + T (a) · (T (b) ∧ c)
IIT = , (13.56)
a · (b ∧ c)
T (a) · (T (b) ∧ T (c))
IIIT = =: det T, (13.57)
a · (b ∧ c)
ed indipendenti dalla scelta della base. Per tale ragione IT , IIT , IIIT sono detti invarianti principali di T. Il
primo invariante è la traccia, ed il terzo invariante è il determinante. Ricordando l’interpretazione geome-
trica del prodotto triplo e detto P il parallelepipedo di spigoli a, b, c, il determinante può equivalentemente
definirsi come il rapporto
V ol [T (P)]
det T := . (13.58)
V ol (P)
Con le seguenti proposizioni andiamo ora a stabilire alcune importanti proprietà degli invarianti.
Proposizione 163 La traccia è una applicazione lineare
Tr : Hom (V, V) → IR, (13.59)
Dimostrazione Siano T, U ∈Hom (V, V) ed α, β ∈ IR. Dalla definizione (13.55) e dalla (13.16) si ottiene
Tr (αT
∙ + βU) ¸ ∙ ¸
T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c)) U (a) · (b ∧ c) + a · (U (b) ∧ c) + a · (b ∧ U (c))
=α +β
a · (b ∧ c) a · (b ∧ c)
= α Tr T + β Tr U.
(13.60)

Proposizione 164 Siano u, v ∈ V e (u ⊗ v) ∈Hom (V, V). Allora


1. Tr (u ⊗ v) = u · v;
2. II(u⊗v) = 0;
3. det (u ⊗ v) = 0.
Dimostrazione Dalla (13.55), scelta la base (a, b, c) di V:
[a · (b ∧ c)] Tr (u ⊗ v) (13.61)
= [(v · a) u · (b ∧ c)] + [a · ((v · b) u ∧ c)] + [a · (b ∧ (v · c) u)]
= (v · a) [u · (b ∧ c)] + (v · b) [a · (u ∧ c)] + (v · c) [a · (b ∧ u)] .
Poiché (a, b, c) è una base di V, il vettore u ammette la unica rappresentazione
u =αa+βb+γc. (13.62)
Sostituendo tale espressione nella precedente si ottiene
(v · a) [u · (b ∧ c)] + (v · b) [a · (u ∧ c)] + (v · c) [a · (b ∧ u)]
= α (v · a) [a· (b ∧ c)] + β (v · b) [a · (b ∧ c)] + γ (v · c) [a · (b ∧ c)] , (13.63)
da cui, cancellando il fattore comune [a · (b ∧ c)]:
Tr (u ⊗ v) = α (v · a) + β (v · b) + γ (v · c)
= (αa+βb+γc) · v
= u · v. (13.64)
Gli asserti (2) e (3) sono diretta conseguenza delle (13.56), (13.57) sostituendo in esse T con (u ⊗ v) ed
osservando che tutti i prodotti tripli che compaiono nella (13.56) si annullano in virtù del fatto che essi
contengono due vettori multipli di u, mentre il prodotto triplo che compare nella (13.57) si annulla perché in
esso appaiono tre vettori multipli di u.
13.4. INVARIANTI. 119

Proposizione 165 Siano T, U ∈Hom (V, V) ed α ∈ IR. Valgono le seguenti

det (αT) = α3 det T, (13.65)


det (TU) = det T det U. (13.66)

Dimostrazione Scelta una base (a, b, c) di V, le (13.57), (13.16) forniscono

αT (a) · (αT (b) ∧ αT (c)) T (a) · (T (b) ∧ T (c))


det (αT) = = α3 = α3 det T. (13.67)
a · (b ∧ c) a · (b ∧ c)
∙ ¸
TU (a) · (TU (b) ∧ TU (c)) U (a) · (U (b) ∧ U (c))
det (TU) = = det T = det T det U. (13.68)
a · (b ∧ c) a · (b ∧ c)

Il determinante risulta essere una applicazione non lineare in quanto det (αT) 6= α det T: esso risulta
infatti essere una mappa omogenea di ordine tre (si veda la (13.65)).

Proposizione 166 Sia T ∈ Hom (V, V) un tensore invertibile dipendente da un parametro t. Assumendo
dT
l’esistenza della derivata , si ha
dt
∙ µ ¶¸
d dT −1
(det T) = (det T) Tr T . (13.69)
dt dt

Dimostrazione Dalla (13.57), scelta una base (a, b, c) di V indipendente da t


d d
[a · (b ∧ c)](det T) = [T (a) · (T (b) ∧ T (c))]
∙ ¸ dt µ∙ dt¸ ¶ µ ∙ ¸ ¶
dT −1 dT −1 dT −1
= T T (a) · (T (b) ∧ T (c)) + T (a) · T T (b) ∧ T (c) + T (a) · T (b) ∧ T T (c)
dt dt dt
µ ¶
dT −1
= Tr T T (a) · (T (b) ∧ T (c))
dt
µ ¶
dT −1
= Tr T (det T) [a · (b ∧ c)] . (13.70)
dt

Cancellando il fattore comune non nullo [a · (b ∧ c)] ne discende l’asserto.

Proposizione 167 Sia T ∈ Hom (V, V) rappresentato come

T = T i j bi ⊗ bj , (13.71)

in una base prodotto generata dalla base B = (b1 , b2 , b3 ) di V. Le rappresentazioni per componenti degli
invarianti principali di T sono

Tr T = T h h , (13.72)
1 h¡ h ¢2 i 1h
2
i
IIT = T h − Thk Tk h = (Tr T) − Tr T2 , (13.73)
2 2
i j k
det T = εijk T 1 T 2 T 3 . (13.74)

Dimostrazione Consideriamo la (13.55) con la base (b1 , b2 , b3 ) in luogo della base (a, b, c):

[b1 · (b2 ∧ b3 )] Tr T (13.75)


= T (b1 ) · (b2 ∧ b3 ) + b1 · (T (b2 ) ∧ b3 ) + b1 · (b2 ∧ T (b3 )) .

Ricordando la (13.17) e dalla multilinearità del prodotto triplo la precedente uguaglianza può riscriversi come

[b1 · (b2 ∧ b3 )] Tr T (13.76)


¡ ¢ ¡ ¢
= T 1 bh · (b2 ∧ b3 ) + b1 · T h 2 bh ∧ b3 + b1 · b2 ∧ T h 3 bh
h
¡ ¢
= T h 1 + T h 2 + T h 3 [b1 · (b2 ∧ b3 )] ,

da cui
Tr T = T h h . (13.77)
120 CAPITOLO 13. TENSORI DOPPI

Analogamente, considerando la (13.56) e tenendo presente la (13.28):

[b1 · (b2 ∧ b3 )] IIT (13.78)


= b1 · (T (b2 ) ∧ T (b3 )) + T (b1 ) · (b2 ∧ T (b3 )) + T (b1 ) · (T (b2 ) ∧ b3 )
¡ ¢ ¡ ¢ ¡ ¢
= b1 · T h 2 bh ∧ T k 3 bk + T h 1 bh · b2 ∧ T k 3 bk + T h 1 bh · T k 2 bk ∧ b3
¡ ¢
= ε1hk T h 2 T k 3 + εh2k T h 1 T k 3 + εhk3 T h 1 T k 2 [b1 · (b2 ∧ b3 )] .

Cancellando il fattore comune non nullo [b1 · (b2 ∧ b3 )] e sviluppando i termini in accordo con la definizione
di simbolo di permutazione si ottiene
¡ ¢ ¡ ¢ ¡ ¢
IIT = ε123 T 2 2 T 3 3 + ε132 T 3 2 T 2 3 + ε123 T 1 1 T 3 3 + ε321 T 3 1 T 1 3 + ε123 T 1 1 T 2 2 + ε213 T 2 1 T 1 2
= T22 T33 + T11 T33 + T11 T22 − T32 T23 − T31 T13 − T21 T12 ,

dalla quale, riarrangiando i termini


1 h¡ h ¢2 i
IIT = T h − Thk Tk h . (13.79)
2
Consideriamo infine la (13.57):

[b1 · (b2 ∧ b3 )] det T


= [T (b1 ) · (T (b2 ) ∧ T (b3 ))]
£ ¡ ¢¤
= T i 1 bi · T j 2 bj ∧ T k 3 bk
= εijk T i 1 T j 2 T k 3 [b1 · (b2 ∧ b3 )] . (13.80)

Cancellando nuovamente il fattore comune non nullo [b1 · (b2 ∧ b3 )] ne discende

det T = εhij T i 1 T j 2 T k 3 . (13.81)

L’insieme di scalari {εhij }, h, i, j = 1, 2, 3, i cui elementi sono i valori assunti dalla classe di funzioni (cfr.
proposizione 134) n³ ´o
cLC := B, ψ LC
B : i3 3 {h, i, j} −
7 → εhi
j
∈ {−1, 0, 1} , (13.82)
che associano alle permutazioni di {1, 2, 3} i valori dell’indicatore di Levi-Civita quando sia stata fissata una
base B di V, non verificano le ipotesi della proposizione 134. Quindi il simbolo di permutazione non identifica
le componenti di un tensore rispetto alla base prodotto di T3 (V) generata da una qualsivoglia base di V.
Siano infatti B e B̃ due basi di V, A l’endomorfismo di V che trasforma i vettori della base B nei vettori della
base B̃:
e i , i = 1, 2, 3,
A (bi ) = b (13.83)
ed A la matrice associata a tale cambiamento di coordinate (cfr. sezione 10.3). La (13.57) porge

[u · (v ∧ w)] det A = [A (u) · (A (v) ∧ A (w))] . (13.84)

Dette ui , v j , wk le coordinate dei vettori della base (u, v, w) nella base B e tenendo presente la (13.28), la
precedente può riscriversi come
ui v j wk [bi · (bj ∧ bk )] det A = ui v j wk [A (bi ) · (A (bj ) ∧ A (bk ))] ;
εjki det A = [A (bi ) · (A (bj ) ∧ A (bk ))] ; (13.85)
h ³ ´i
εjki det A = b ei · b ej ∧ bek .

Riscrivendo ora i vettori della base B̃ nei termini dei vettori della base B si ottiene
£ ¡ ¢¤
εjki det A = Ah i bh · Al j bl ∧ Am k bk
= Ah i Al j Am k [bh · (bl ∧ bm )] = Ah i Al j Am k εlmh . (13.86)
−1
Ricordando che l’applicazione A deve essere non singolare (cfr. (4.3) e che (det A) = det A−1 (scaturisce
immediatamente dalla (13.66)) si ottiene l’identità

εjki = det A−1 Al j Am k Ah i εlmh . (13.87)


13.5. TENSORE AGGIUNTO. 121

Poiché la precedente è in disaccordo con la legge di trasformazione delle componenti (10.117) ne discende
che l’indicatore di Levi-Civita non fornisce le componenti di un tensore. Solo se nel cambiamento di base
considerato det A = 1 allora le trasformazioni (13.87) coincidono con quelle di un tensore. Per questa ragione
talvolta si dice che l’indicatore di Levi-Civita è uno pseudo-tensore.
Valgono inoltre le seguenti relazioni, delle quali si lascia la dimostrazione al lettore:

Tr TT = Tr T, ∀T ∈ Hom (V, V) , (13.88)


Tr TU = Tr UT, ∀T, U ∈ Hom (V, V) , (13.89)
det TT = det T, ∀T ∈ Hom (V, V) . (13.90)

13.4.1 Decomposizione in parte sferica e parte deviatorica.


Si lascia al lettore la dimostrazione della seguente:

Proposizione 168 Ogni tensore T ∈ Hom (V, V) . può esprimersi come somma di un tensore sferico:

S = α1I, α ∈ IR, (13.91)

e di un tensore D tale che


Tr D = 0. (13.92)
Tale decomposizione è unica. Il tensore D, detto deviatore di T, è dato da:

1
D=T− (Tr T) 1I. (13.93)
3

13.5 Tensore aggiunto.


Con le seguenti proposizioni andiamo ad introdurre il tensore aggiunto di un dato tensore T ∈ Hom (V, V).

Proposizione 169 Siano u, v ∈ V. Esistono w, x, y ∈V tali che:

u = x ∧ w, v = y ∧ w. (13.94)

Dimostrazione Consideriamo due vettori u, v ∈ V e definiamo

w := u ∧ v,
w∧u w∧v
x := , y := . (13.95)
w·w w·w
Si consideri ora la identità
(a ∧ b) ∧ c = (a · c) b− (b · c) a, ∀a, b, c ∈V, (13.96)
(la precedente verrà ricavata nella sezione relativa ai tensori antisimmetrici, cfr. proposizione 192). Osservando
che, dall’assioma (13.17) le coppie di vettori u, w e v, w risultano essere ortogonali rispetto al prodotto scalare
definito in V si ha:
1 1
x∧w = (w ∧ u) ∧ w = [(w · w) u− (u · w) w] = u,
w·w w·w (13.97)
1 1
y∧w = (w ∧ v) ∧ w = [(w · w) v− (v · w) w] = v,
w·w w·w
onde l’asserto.

Proposizione 170 Sia T ∈ Hom (V, V) e siano u, v, a, b vettori di V tali che:

a ∧ b =µ (u ∧ v) , µ ∈ IR. (13.98)

Allora
T (a) ∧ T (b) = µT (u) ∧ T (v) . (13.99)
122 CAPITOLO 13. TENSORI DOPPI

Dimostrazione Ricordando l’assioma (13.17) si ha che, per µ 6= 0:


1
a· (u ∧ v) = a· (a ∧ b) = 0,
µ (13.100)
1
b· (u ∧ v) = b· (a ∧ b) = 0.
µ
I vettori a e b possono quindi esprimersi in modo univoco come combinazione lineare dei vettori u e v :
a =αu+βv, b =γu+δv, (13.101)
da cui, tenendo presenti gli assiomi (13.15), (13.16):
a ∧ b = (αu+βv) ∧ (γu+δv) = (αδ − βγ) (u ∧ v) , (13.102)
con µ = αδ − βγ. Dalla considerazione che T è lineare scaturisce l’asserto.
Proposizione 171 Sia T ∈ Hom (V, V). Esiste ed è unica l’applicazione lineare TA ∈ Hom (V, V) detta
tensore aggiunto di T, e tale che:
TA (v ∧ w) = T (v) ∧ T (w) , ∀v, w ∈V. (13.103)
Dimostrazione l’esistenza e la linearità di TA ne implicano l’unicità. Sia u ∈V; in virtù della proposizione
169 esistono v, w ∈V tali che u = v ∧ w. Siano ora a, b ∈V tali che
a ∧ b =µ (v ∧ w) , µ ∈ IR. (13.104)
Nel caso in cui µ = 1, dalla proposizione precedente si ha:
T (a) ∧ T (b) = T (v) ∧ T (w) . (13.105)
Di conseguenza, ∀u ∈V è ben posta la funzione:
V 3u 7→TA (u) = T (v) ∧ T (w) ∈ V. (13.106)
Per provarne la linearità si noti che:
1.
TA (αu) = T (αv) ∧ T (w) = αT (v) ∧ T (w) = αTA (u) , α ∈ IR; (13.107)
2. siano u, v ∈V. In virtù della proposizione 169 esistono w, x, y ∈V tali che
u = x ∧ w, v = y ∧ w, (13.108)
da cui:
TA (u + v) = TA ((x ∧ w) + (y ∧ w)) = TA ((x + y) ∧w)
= T (x + y) ∧ T (w) = (T (x) ∧ T (w)) + (T (y) ∧ T (w))
= TA (u) +TA (v) . (13.109)

Stabiliamo ora la relazione tra il determinante di un dato tensore T ed il suo tensore aggiunto.
Proposizione 172 Sia T ∈ Hom (V, V) . Allora
(det T) 1I = TT TA . (13.110)
Dimostrazione Siano u, v, w ∈V tre vettori linearmente indipendenti. Ricordando le (13.57), (13.90) si
ha:
£ ¤ £ ¤
det T [1I (u ∧ v)] · w = [(T (u) ∧T (v))] · T (w) = TA (u ∧ v) · T (w) = TT TA (u ∧ v) · w, (13.111)
da cui
(det T) 1I = TT TA . (13.112)

Dalla proposizione precedente discende che se T ∈ Hom (V, V) è un automorfismo, il suo inverso ed il suo
aggiunto sono legati dalla seguente:
£ ¤T
T−1 = (det T)−1 TA . (13.113)
13.5. TENSORE AGGIUNTO. 123

Proposizione 173 Sia T ∈ Hom (V, V) e TA il suo aggiunto. Dette Tij = bi · T (bj ) le componenti del
tensore T nella base ortonormale B = (b1 , b2 , b3 ) , si ha:

1. le componenti del tensore aggiunto nella base B sono date da


1 hk pq
TijA = εi εj Thp Tkq ; (13.114)
2
T A
2. le operazioni (·) e (·) commutano nel senso che
£ A ¤T £ T ¤A
T = T . (13.115)

Dimostrazione
1. Si consideri la base ortonormale B di V. Dalla (13.28) e dalla linearità di TA si ottiene:
¡ ¢
εhk j TijA = bi ·TA εhk j bj = bi ·TA (bh ∧ bk ) = bi ·(T (bh ) ∧ T (bk )) = bi ·(Tph bp ∧ Tqk bq ) , (13.116)

avendo indicato con Tph la componente lungo bp del vettore T (bh ) . Dalla trilinearità del prodotto triplo
è possibile scrivere:

εhk j TijA = bi · (Tph bp ∧ Tqk bq ) = Tph Tqk [bi · (bp ∧ bq )] = Tph Tqk [bi · (bp ∧ bq )] = Tph Tqk εi pq .
(13.117)
Osservando che1
εhk j εl hk = 2δ jl , (13.118)
discende
2TilA = εi pq εl hk Tph Tqk . (13.119)

2. Dette
1 hk pq
TijA = εi εj Thp Tkq , (13.120)
2
£ ¤T
le componenti di¡ TA nella ¢base B, dalla proposizione 161 il tensore TA nella base prodotto generata
dalla base R = b1 , b2 , b3 reciproca di B può esprimersi come
£ A ¤T 1 pq hk ¡ ¢
T = εi εj Thp Tkq bi ⊗ bj . (13.121)
2
¡ ¢
Se TT = Tji bi ⊗ bj è il tensore trasposto di T nella stessa base prodotto, ripercorrendo i passi che
hanno condotto alla (13.114) con TT in luogo di T si ottiene
£ T ¤A 1 hk pq ¡ ¢
T = εi εj Tph Tqk bi ⊗ bj . (13.122)
2
Poiché fissata la base i coefficienti sono unici ne discende l’asserto.

Espandendo il secondo membro della (13.114) è facile convincersi che fissata una base B di V, la componente
TijA del tensore TA è data dal determinante del complemento algebrico dell’elemento Tij della matrice T i cui
elementi sono le componenti del tensore T nella stessa base. Si consideri ad esempio

A 1 £¡ 23 13 ¢ ¡ ¢¤
T12 = ε1 ε2 T21 T33 + ε1 23 ε2 31 T23 T31 + ε1 32 ε2 13 T31 T23 + ε1 32 ε2 31 T33 T21
2
1
= [(−T21 T33 + T23 T31 ) + (T31 T23 − T33 T21 )] = T23 T31 − T21 T33
2 µ ¶
T T23
= (−1)(1+2) det 21 . (13.123)
T31 T33

Proposizione 174 Sia T ∈ Hom (V, V) e TA il suo aggiunto. Valgono le seguenti proprietà:
1 La seguente si ottiene semplicemente espandendo il termine εhk j εl hk .
124 CAPITOLO 13. TENSORI DOPPI

£ ¤A
1. TA = (det T) T;

2. Tr TA = IIT .

Dimostrazione

1. Siano u, v ∈V. Dalla definizione di tensore aggiunto si ha


£ A ¤A
T (u ∧ v) = TA (u) ∧ TA (v) . (13.124)

Dalla proposizione 169, esistono w, x, y ∈V tali che u = x ∧ w, v = y ∧ w. Sostituendo nella precedente


ed utilizzando ancora la definizione di tensore aggiunto:
£ ¤A
TA (u ∧ v) = T (x) ∧ T (w) ∧ (T (y) ∧ T (w))
= [T (x) · (T (y) ∧ T (w))] T (w) − [T (w) · (T (y) ∧ T (w))] T (x) , (13.125)

avendo fatto uso della identità (13.96). Dalla (13.17) e dalla definizione di determinante si ha inoltre
£ A ¤A
T (u ∧ v) = (det T) T [(x· (y ∧ w)) w] = (det T) T [(x · v) w] , (13.126)

ovvero, facendo nuovamente riferimento alla (13.96):


£ A ¤A
T (u ∧ v) = (det T) T (u ∧ v) , (13.127)

onde, data l’arbitrarietà di u e v, l’asserto.

2. Siano u, v, w ∈V; dalla (13.56) si ha

[u · (v ∧ w)] IIT = u · (T (v) ∧ T (w)) + T (u) · (v ∧ T (w)) + T (u) · (T (v) ∧ w) . (13.128)

Dalla definizione di aggiunto e da quella di trasposto, il primo dei tre addendi a secondo membro può
essere riscritto come:
¡ ¢ £ ¤T
u · (T (v) ∧ T (w)) = u · TA (v ∧ w) = (v ∧ w) · TA (u) . (13.129)

Si consideri ora il secondo addendo; dalla proposizione 169 esistono x, y ∈V tali che v = x ∧ y. Ricor-
dando la identità (13.96) si ha:

T (u) · (v ∧ T (w)) = TT (v ∧ T (w)) · u; (13.130)


T T T
T (v ∧ T (w)) = T (x ∧ y ∧ T (w)) = T ((x·T (w)) y − (y·T (w)) x)
¡ ¢ ¡ ¢
= (x·T (w)) TT (y) − (y·T (w)) TT (x) = TT (x) ·w TT (y) − TT (y) ·w TT (x)
£ ¤A
= TT (x) ∧ TT (y) ∧ w = TT (v) ∧ w, (13.131)

da cui, tenendo presente la proposizione 173 si ottiene


³£ ¤A ´
T (u) · (v ∧ T (w)) = TT (v) ∧ w · u. (13.132)

In modo del tutto analogo si stabilisce che


³ £ ¤A ´
T (u) · (T (v) ∧ w) = v ∧ TT (w) · u. (13.133)

Combinando le (13.129), (13.132), (13.133) ed ancora dalla proposizione 173 e dalle (13.55), (13.88),
discende l’asserto.
13.6. IL TEOREMA DI CAYLEY-HAMILTON. 125

13.6 Il teorema di Cayley-Hamilton.


Apriamo questa sezione richiamando brevemente la definizione di autovalore ed autovettore, concetti ampia-
mente esposti al Capitolo 6, ed al quale si rimanda per una loro trattazione esaustiva.
Un vettore non nullo v ∈ V è un autovettore per un tensore T ∈ Hom (V, V) se

∃λ ∈ IR : T (v) = λv. (13.134)

Qualora λ esista, esso è detto autovalore relativo all’autovettore v. La precedente definizione può essere
enunciata in modo reciproco dicendo che uno scalare λ ∈ IR è un autovalore per un tensore T ∈ Hom (V, V)
se esiste un vettore non nullo v ∈ V tale che valga la (13.134). Lo spazio caratteristico od autospazio di
T corrispondente a λ è il sottospazio di V costituito da tutti i vettori v tali che:

T (v) = λv. (13.135)

La dimensione dello spazio caratteristico è detta molteplicità geometrica dell’autovalore λ.


Lo scalare λ è un autovalore per il tensore T se e solo se (cfr. Capitolo 6)

det (T − λ1I) = 0. (13.136)

La precedente, nota come equazione caratteristica per T, tenendo presente la (13.57) può esprimersi nel
modo seguente:
(T (a) − λa) · [(T (b) − λb) ∧ (T (c) − λc)] = 0, ∀a, b, c ∈ V. (13.137)
Sviluppando il prodotto triplo con l’ausilio delle (13.15), (13.16) ed utilizzando le definizioni (13.55), (13.56),
(13.57) degli invarianti si giunge alla forma equivalente

λ3 − λ2 Tr T + λIIT − det T = 0. (13.138)

Poichè i tre invarianti principali sono reali, la precedente espressione afferma che il tensore T possiede tre
autovalori reali oppure ne possiede uno soltanto.
Sia T ∈ Hom (V, V); il suo quadrato T2 è definito come

T2 = TT. (13.139)

Partendo da
T0 = 1I, (13.140)
è possibile definire tutte le potenze di T per induzione nel modo seguente:

Tk = TTk−1 , (13.141)

dove k ≥ 2 è un intero. Diremo polinomio in T un endomorfismo

pn (T) := an Tn + an−1 Tn−1 + · · · + a1 T + a0 1I, (13.142)

dove n è un intero positivo ed a0 , a1 ,..., an sono scalari.


Dimostriamo ora la seguente:

Proposizione 175 Sia T ∈ Hom (V, V) un tensore arbitrario e λ ∈ IR un suo autovalore. Allora:

1. pn (λ) è un autovalore di pn (T) ;

2. se v è un autovettore di T associato all’autovalore λ, esso è anche un autovettore di pn (T) associato


all’autovalore pn (λ).

Dimostrazione La dimostrazione procederà per induzione. Sia v un autovettore di T associato all’auto-


valore λ. Dalla definizione di autovalore ed autovettore associato, la seguente

Tn (v) = λn v, (13.143)

vale per n = 1. Supponendo che essa valga per n = 1, 2, ..., m si ha

Tm+1 (v) = T (Tm (v)) = T (λm v) = λm T (v) = λm+1 v. (13.144)


126 CAPITOLO 13. TENSORI DOPPI

La sua validità è quindi estendibile ad ogni intero positivo n. Essendo pn (T) una combinazione lineare di
potenze di T, ne segue che pn (λ) è un suo autovalore e v ne è l’autovettore associato:

[pn (T)] (v) = a0 v+a1 T (v) + a2 T2 (v) + ... + an Tn (v)


= a0 + a1 λv+a2 λ2 v + ... + an λn v
¡ ¢
= a0 + a1 λ+a2 λ2 + ... + an λn v
= pn (λ) v, (13.145)

(a0 , a1 , ..., an ) ∈ IR.


Enunciamo ora la seguente proposizione, nota come teorema di Cayley-Hamilton:

Proposizione 176 Ogni tensore soddisfa la propria equazione caratteristica; nella fattispecie:

T3 − (Tr T) T2 + (IIT ) T − (det T) 1I= 0, ∀T ∈ Hom (V, V) . (13.146)

Dimostrazione Si consideri un tensore T ∈ Hom (V, V) e l’operazione


3 2 0
p3 (·) := (·) − (Tr T) (·) + (IIT ) (·) − (det T) (·) . (13.147)

Gli autovalori del tensore T sono radici dell’equazione caratteristica:

λ3 − λ2 Tr T + λIIT − det T = 0. (13.148)

Risulta tuttavia
p3 (λ) = λ3 − λ2 Tr T + λIIT − det T. (13.149)
Dalla (13.110) si ha inoltre
h iT
A
det (T − λ1I) 1I = p3 (λ) 1I = (T − λ1I) (T − λ1I) . (13.150)
h iT
Combinando la precedente con la (13.148) si evince che (T − λ1I)A (T − λ1I) è l’endomorfismo nullo di
Hom (V, V). Sia ora v un autovettore di T associato all’autovalore λ; la proposizione precedente afferma che
esso è anche un autovettore di

p3 (T) = T3 − (Tr T) T2 + (IIT ) T − (det T) 1I, (13.151)

con autovalore associato p3 (λ) , ovvero che

p3 (T) (v) = p3 (λ) v. (13.152)

Combinando l’ultima uguaglianza con la (13.110) si giunge all’identificazione


h iT
A
(T − λ1I) (T − λ1I) = p3 (T) , (13.153)

da cui
p3 (T) = T3 − (Tr T) T2 + (IIT ) T − (det T) 1I = 0. (13.154)

L’endomorfismo p3 (T) possiede evidentemente tre autovalori nulli. Esistono tuttavia tensori non nulli
aventi essi stessi tre autovalori nulli. Siano u, v ∈V due vettori non nulli ed ortogonali rispetto al prodotto
scalare definito in V; l’endomorfismo (u ⊗ v) è evidentemente diverso dal tensore nullo ma, in virtù della
proposizione 164, esso possiede tre autovalori nulli.

13.7 Prodotto scalare tra tensori doppi.


Avvalendoci dei risultati stabiliti nel numero 12.3 andiamo a definire un prodotto scalare in Hom (V, V).
Siano A, B ∈ Hom (V, V) rappresentati come

A = Aij ei ⊗ ej ,
(13.155)
B = B ij ei ⊗ ej .
13.8. TENSORI SIMMETRICI. 127

Ricordando che Hom (V, V) e T11 (V) sono isomorfi, tenendo presente la identificazione T2 (V) ≡ T11 (V) ≡
T2 (V) e scelta la contrazione C, dalla (12.90) si ha

(A · B)C := C (A ⊗ B) , (13.156)

con
C = Ci1 3 ◦ Ci2 4 . (13.157)
Seguendo la tradizione scegliamo
i1 = 1, i2 = 2, (13.158)
definendo il prodotto scalare

A · B = C13 [C24 (A ⊗ B)]


= Aij B hk δ hi δ kj
= Aij Bij , (13.159)

detto in letteratura prodotto scalare naturale associato allo spazio Hom (V, V). Ricordando che

AB = Aij B hk (ei ⊗ ej ) (eh ⊗ ek )


= Aij B hk δ jh (ei ⊗ ek )
= Aij Bj k (ei ⊗ ek ) , (13.160)

dalla definizione di traccia e tenendo presente la seguente

A (B (e1 )) · (e2 ∧ e3 )
= A Bj [ei ⊗ ek ] (e1 ) = Aij Bj k δ k1 ei
ij k

= Aij Bj1 ei , (13.161)

si ottiene

Tr (AB) = Aij Bj1 [ei · (e2 ∧ e3 )] + Aij Bj2 e1 · (ei ∧ e3 ) + Aij Bj3 [e1 · (e2 ∧ ei )]
¡ ¢
= A1j Bj1 + A2j Bj2 + A3j Bj3 [e1 · (e2 ∧ e3 )]
= Aij Bji , (13.162)

da cui ³ ´
A · B = Tr ABT . (13.163)

13.8 Tensori simmetrici.


Un tensore S ∈ Hom (V, V) è simmetrico se S = ST (si noti l’analogia con la (8.16)). Denoteremo con
© ª
Sym (V, V) := S | S ∈ Hom (V, V) e S = ST , (13.164)

l’insieme dei tensori simmetrici.

Proposizione 177 Sym (V, V) è un sottospazio di Hom (V, V).

Dimostrazione Siano S, e
S ∈ Sym (V, V). Dalla proposizione 157 segue che, ∀α, β ∈ IR
³ ´T
S = αST + β e
αS + β e ST = αS + β e
S ⇒ αS + β e
S ∈ Sym (V, V) . (13.165)

In virtù della proposizione 6 Sym (V, V) è quindi un sottospazio di Hom (V, V).
Stabiliamo ora la dimensione di Sym (V, V).

Proposizione 178 Sia V uno spazio vettoriale sul quale è definito un prodotto scalare non degenere, definito
n
positivo a valori in IR, e sia dim V = n. Allora dim Sym (V, V) = (n + 1).
2
128 CAPITOLO 13. TENSORI DOPPI

Dimostrazione Dalla 13.33, se (e1 , e2 , ..., en ) è una base di V, tra le n2 componenti di S ∈ Sym (V, V)
sussistono le relazioni indipendenti

Sij = ei ·S (ej ) = ej ·ST (ei ) = ej ·S (ei ) = Sji . (13.166)

Il numero di tali relazioni uguaglia il numero delle combinazioni semplici Cn,2 2 . Il numero delle componenti
indipendenti di un tensore simmetrico risulta quindi essere
µ ¶
2 2 n
n − Cn,2 = n −
2
n!
= n2 − (13.167)
2! (n − 2)!
n (n − 1) n
= n2 − = (n + 1) ,
2 2
n
da cui dim Sym (V, V) = (n + 1).
2
La precedente proposizione suggerisce che il numero delle componenti indipendenti di un tensore simmetrico
valutate in una base di uno spazio vettoriale tridimensionale V è pari a sei; in forma matriciale
⎛ ⎞
S11 S12 S13
S = ⎝S12 S22 S23 ⎠ . (13.168)
S13 S23 S33

Proposizione 179 Ogni tensore nella forma (u ⊗ v + v ⊗ u) appartiene a Sym (V, V) ∀u, v ∈ V.

Dimostrazione È ovvia conseguenza delle proposizioni 157 e 159.

Proposizione 180 Sia (e1 , e2 , ..., en ) una base ortonormale di V. La famiglia di tensori doppi definiti come

1
E(ij) := (ei ⊗ ej + ej ⊗ ei ) , i ≤ j (nessuna somma sugli indici ripetuti), (13.169)
2
costituisce una base per Sym (V, V).
© ª
Dimostrazione L’appartenenza di tutti gli elementi dell’insieme E(ij) , i ≤ j allo spazio Sym (V, V)
discende immediatamente dalla proposizione precedente, mentre la proprietà
© ª n
Card E(ij) , i ≤ j = (n + 1) = dim Sym (V, V) , (13.170)
2
è conseguenza della proposizione 178. Rimane © ora da stabilire laªloro indipendenza lineare in Sym (V, V). Si
consideri a tal proposito l’insieme di scalari S ij , i, j = 1, 2, ..., n tali che S ij = S ji e la combinazione lineare

Xn X n X j
S ij
(ei ⊗ ej + ej ⊗ ei ) = 2 S ij E(ij) . (13.171)
i,j=1
2 j=1 i=1

Supponendo che tale combinazione lineare fornisca il tensore nullo di Hom (V, V) si ha
¡ ¢
0 eh , ek = 0 =
X n
S ij ¡ ¢
= [ei ⊗ ej + ej ⊗ ei ] eh , ek =
i,j=1
2

S ij ³ k h ´ 1¡
Xn
¢
= δ j δ i + δ ki δ hj = S hk + S kh = S hk , h, k = 1, 2, ..., n. (13.172)
i,j=1
2 2
© ª
Essendo nulli tutti i coefficienti della combinazione lineare ne discende che i tensori E(ij) , i ≤ j sono
linearmente indipendenti in Sym (V, V), onde l’asserto.
2 Il numero delle relazioni indipendenti fra le (13.166) uguaglia il numero dei sottoinsiemi di 2 elementi di {1, ..., n} e non il

numero delle coppie ordinate che si possono formare a partire da {1, ..., n}.
13.8. TENSORI SIMMETRICI. 129

Sia dim V = 3. Dalla proposizione 178 discende dim Sym ¡ (V, V) =¢ 6. Le componenti dei tensori E(ij)
definiti dalla (13.169) e valutate nella base ortonormale R = e1 , e2 , e3 sono
hk
¡ ¢
E(ij) = E(ij) eh , ek = (13.173)
¡ ¢ 1 k h³ ´
= eh · E(ij) ek = δ δ + δ ki δ hj , h, k, i, j = 1, 2, 3, i ≤ j.
2 j i
Le corrispondenti matrici associate sono
⎛ ⎞ ⎛ 1
⎞ ⎛ 1

1 0 0 0 2 0 0 0 2
E(11) = ⎝0 0 0⎠ ; E(12) = ⎝ 12 0 0⎠ ; E(13) = ⎝0 0 0⎠ ;
1
0 0 0 0 0 0 2 0 0
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ (13.174)
0 0 0 0 0 0 0 0 0
E(22) = ⎝0 1 0⎠ ; E(23) = ⎝0 0 1⎠
2 ; E(33) = ⎝0 0 0⎠ .
1
0 0 0 0 2 0 0 0 1

Un tensore S ∈ Sym (V, V) possiede tre autovalori λ1 , λ2 , λ3 quando ciascuno di essi sia contato con la
propria molteplicità algebrica (confronta il Capitolo 8, ed in particolare la proposizione 112), associati a tre
autovettori p1 , p2 , p3 ortonormali in V (cfr. proposizione 117). Dalla (13.43) e dalla definizione di autovalore
data nella sezione 6.1 si ottiene
⎡ ⎤
X3 3
X 3
X
S = S [1I] = S ⎣ (pj ⊗ pj )⎦ = [S (pj ) ⊗ pj ] = [λj (pj ⊗ pj )] . (13.175)
j=1 j=1 j=1

La precedente è la rappresentazione spettrale del tensore simmetrico S.


Diremo che un tensore T ∈ Hom (V, V) è semi-definito positivo se, ∀u ∈ V

u · T (u) ≥0. (13.176)

Se ∀u ∈ V
u · T (u) >0, (13.177)
diremo che il tensore T è definito positivo.

Proposizione 181 Se S ∈ Sym (V, V) è semi-definito positivo i suoi autovalori λj , j = 1, 2, 3 sono non
negativi, ovvero risulta λj ≥ 0.

Dimostrazione Dalla (13.176) e dalla (13.175) si ha, ∀u ∈ V :


⎡ ⎤
X3 X3
u · S (u) = u · ⎣ λj (pj ⊗ pj )⎦ (u) = λj (u · pj ) (pj · u)
j=1 j=1
3
X 2
= λj (u · pj ) ≥ 0 ⇒ λj ≥ 0, j = 1, 2, 3. (13.178)
j=1

Proposizione 182 Sia S ∈ Sym (V, V) un tensore semi-definito positivo. Allora esiste ed è unica la sua
radice quadrata S1/23 Il tensore S1/2 è simmetrico definito positivo ed ha la seguente rappresentazione spettrale
3
X 1/2
S1/2 = λj (pj ⊗ pj ) , (13.179)
j=1

dove (λ1 , λ2 , λ3 ) sono gli autovalori di S ai quali sono associati gli autovettori normalizzati (p1 , p2 , p3 ).

Dimostrazione Definiamo il tensore


3
X 1/2
A= λj (pj ⊗ pj ) , (13.180)
j=1

3 Sia
 
S ∈ Sym(V, V). La sua radice quadrata è il tensore S1/2 tale che S1/2 S1/2 = S.
130 CAPITOLO 13. TENSORI DOPPI

chiaramente simmetrico semi-definito positivo. Ricordando che gli autovettori sono ortonormali il quadrato
di A è dato da
" 3 #⎡ 3 ⎤
X 1/2 X 1/2
A2 = AA = λi (pi ⊗ pi ) ⎣ λj (pj ⊗ pj )⎦
i=1 j=1
3
X 3
X
1/2 1/2
= λi λj (pj · pi ) (pi ⊗ pj ) = λh (ph ⊗ ph ) = S. (13.181)
i,j=1 h=1

A è quindi la radice quadrata di S, ovvero risulta essere S1/2 = A. Rimane ora da dimostrare l’unicità di S1/2 .
1/2
Supponiamo che esista un altro tensore S , radice quadrata di S, e che ξ sia un suo autovalore con relativo
autovettore q. Dalla definizione di autovalore ed autovettore associato si ha
1/2
S (q)=ξq; (13.182)
1/2
³ 1/2 ´ 1/2
³ 1/2 ´
S (q)=S S (q) = S (ξq) = ξ S (q) = ξ 2 q, (13.183)

1/2
dalle quali si evince che S ha gli stessi autovettori del suo quadrato S mentre i suoi autovalori sono la radice
1/2
quadrata di quelli associati ad S. In definitiva si ha dunque S = S1/2 .

Proposizione 183 Se S ∈ Sym (V, V) è un tensore definito positivo, allora S è non singolare.

Dimostrazione Dalla proposizione 181 i tre autovalori distinti di S soddisfano la condizione λj > 0, j =
1, 2, 3. Dalla (13.57) e scegliendo per essa la base ortonormale costituita dagli autovettori (p1 , p2 , p3 ) si ottiene

[p1 · (p2 ∧ p3 )] det S = S (p1 ) · (S (p2 ) ∧ S (p3 ))


= λ1 p1 · (λ2 p2 ∧ λ3 p3 ) . (13.184)

Dalla trilinierità dell prodotto triplo si ha infine

[p1 · (p2 ∧ p3 )] det S = λ1 λ2 λ3 [p1 · (p2 ∧ p3 )] ⇒


⇒ det S = λ1 λ2 λ3 > 0. (13.185)

da cui la tesi.
La rappresentazione spettrale dell’inversa del tensore S di cui alla proposizione precedente è
3
X
S−1 = λ−1
j (pj ⊗ pj ) . (13.186)
j=1

Proposizione 184 Sia T ∈ Hom (V, V). Le applicazioni lineari TTT e TT T sono simmetriche semi-definite
positive. Se T è invertibile, allora TTT e TT T sono definite positive.

Dimostrazione Dalla proposizione 158 segue che


³ ´T ¡ ¢
T
TTT = TT TT = TTT ,
(13.187)
¡ T ¢T ¡ ¢T
T T = TT TT = TT T,

da cui la simmetria. Consideriamo un vettore u ∈ V; dalla (13.176) e dalla (7.48):


h i ¡ ¢
u· TTT (u) =u·T TT (u) = TT (u) ·TT (u) ≥0,
£ ¤ (13.188)
u· TT T (u) =u · TT (T (u)) = T (u) ·T (u) ≥0,

ovvero le due applicazioni risultano semi-definite positive. Infine, se T è invertibile si ha

ker T = {0} ⇒ T (u) = 0 ⇔ u = 0. (13.189)

Dalla (13.177) le applicazioni TTT e TT T risultano in questo caso definite positive.


13.9. TENSORI ANTISIMMETRICI . 131

Consideriamo un vettore x ∈ V ed un tensore S simmetrico definito positivo; si vuole dare una interpre-
tazione geometrica dell’azione di S su x. A tal fine si consideri la rappresentazione polare
3
X
S= λj (pj ⊗ pj ) , (13.190)
j=1

nella quale (λ1 , λ2 , λ3 ) sono gli autovalori reali positivi di S e (p1 , p2 , p3 ) sono i relativi autovettori norma-
lizzati. l’azione di S su x risulta in un vettore
3
X 3
X 3
X
S (x) = λj (pj ⊗ pj ) x = λj (pj · x) pj = λj xj pj , (13.191)
j=1 j=1 j=1

le cui componenti nella base (p1 , p2 , p3 ) di V sono λ1 x1 , λ2 x2 , λ3 x3 . Il tensore S è dunque una trasformazione
di V consistente in estensioni (se λj > 1) od accorciamenti (se 0 < λj < 1) lungo le direzioni degli autovettori
pj , note come assi principali di S.

13.9 Tensori antisimmetrici .


Un tensore W ∈ Hom (V, V) è antisimmetrico se W = −WT Denoteremo con
© ª
Skw (V, V) = W | W ∈ Hom (V, V) e WT = −W , (13.192)

l’insieme dei tensori antisimmetrici.

Proposizione 185 Skw (V, V) è un sottospazio di Hom (V, V).


e ∈ Skw (V, V). Dalla proposizione 157 segue che, ∀α, β ∈ IR
Dimostrazione Siano W, W
³ ´T ³ ´
αW + β We e T = − αW + β W
= αWT + β W e ⇒ αW + β W e ∈ Skw (V, V) . (13.193)

In virtù della proposizione 6 Skw (V, V) è un sottospazio di Hom (V, V).

Proposizione 186 Sia V uno spazio vettoriale sul quale è definito un prodotto scalare non degenere, definito
n
positivo a valori in IR, e sia dim V = n. Allora dim Skw (V, V) = (n − 1).
2
Dimostrazione Siano u, v ∈ V due vettori arbitrari; dalla (13.33) segue che

u · W (v) = v · WT (u) = − v · W (u) . (13.194)

Sia (e1 , e2 , e3 ) una base di V. Ricordando che in tale base le componenti di W sono Wij = ei ·W (ej ) , dalla
precedente uguaglianza discende che

Wij = 0 se i = j, (13.195)
Wij = −Wji se i 6= j. (13.196)

Le (13.195) stabiliscono che solo n2 − n componenti di W possono essere non nulle. Le (13.196) stabiliscono
n
che queste n2 − n componenti sono a due a due l’una l’opposta dell’altra, e quindi stabiliscono (n − 1)
2
relazioni. Di conseguenza le componenti indipendenti di W sono
³ n ´ n
n2 − n + (n − 1) = (n − 1) . (13.197)
2 2
Quindi
n
dim Skw (V, V) = (n − 1) . (13.198)
2

Il numero delle componenti indipendenti di un tensore antisimmetrico valutate in una base di uno spazio
vettoriale tridimensionale V è, in virtù della precedente proposizione, pari a tre; in forma matriciale:
⎛ ⎞
0 W12 W13
W = ⎝−W12 0 W23 ⎠ . (13.199)
−W13 −W23 0
132 CAPITOLO 13. TENSORI DOPPI

Proposizione 187 Ogni tensore nella forma (u ⊗ v − v ⊗ u) è un elemento di Skw (V, V) , ∀u, v ∈ V.

Dimostrazione Dalle proposizioni 157, 159 si ha

WT = (v ⊗ u)T − (u ⊗ v)T
= u ⊗ v − v ⊗ u = − W, (13.200)

da cui W ∈ Skw (V, V).


Andiamo ora a costruire una base di Skw (V, V).

Proposizione 188 Sia (e1 , e2 , e3 ) una base ortonormale di V. La famiglia di tensori doppi definiti come
1
A[ij] := (ei ⊗ ej − ej ⊗ ei ) , i ≤ j (nessuna somma sugli indici ripetuti), (13.201)
2
costituisce una base per Skw (V, V).

Dimostrazione È del tutto analoga a quella della proposizione 180.


Sia dim V = 3. Dalla proposizione 186 discende dim Skw (V, V) = 3. Le componenti dei tensori A[ij]
definiti dalla (13.201) e valutate nella base ortonormale (e1 , e2 , e3 ) sono
¡ h k¢
Ahk
[ij] = A[ij] e , e (13.202)
¡ ¢ ³
1 k h ´
= eh · A[ij] ek = δ δ − δ ki δ hj , h, k, i, j = 1, 2, 3, i ≤ j.
2 j i
Le corrispondenti matrici associate sono
⎛ 1
⎞ ⎛ 1
⎞ ⎛ ⎞
0 2 0 0 0 2 0 0 0

E[12] = − 2 01
0⎠ ; E[13] =⎝ 0 0 0⎠ ; E[23] = ⎝0 0 1⎠
. (13.203)
2
0 0 0 − 12 0 0 0 − 12 0

Proposizione 189 Sia dim V = 3 e W ∈ Skw (V, V). Allora det W = 0.

Dimostrazione Per la (13.65) e la (13.90) si ha


3
det W = det WT = det (−W) = (−1) det W = − det W, (13.204)

onde l’asserto.

Proposizione 190 Sia W ∈ Skw (V, V). Allora esiste un vettore p ∈ V tale che

W (p) = 0. (13.205)

Dimostrazione È banale conseguenza della proposizione precedente.


Definiamo la base ortonormale (p1 , p2 , p3 ), dove p1 è l’autovettore (normalizzato) di cui alla proposizione
precedente, e p2 , p3 sono definiti dalle seguenti relazioni

p1 = p2 ∧ p3 ,
p2 = p3 ∧ p1 ,
(13.206)
p3 = p1 ∧ p2 ,
p1 · (p2 ∧ p3 ) = 1.

Ricordando le (13.195), (13.196), (13.194), ed il risultato stabilito nella proposizione precedente, le componenti
di un tensore W ∈ Skw (V, V) in tale base sono

W11 = W22 = W33 = 0;


W12 = p1 ·W (p2 ) = − p2 ·W (p1 ) =0;
(13.207)
W13 = p1 ·W (p3 ) = − p3 ·W (p1 ) =0;
W23 = p2 ·W (p3 ) = − p3 ·W (p2 ) =:ω.

Escluso il caso in cui W è il tensore nullo, la quantità ω deve essere diversa da zero. Stante la proposizione
188, nella base prodotto generata dalla base (p1 , p2 , p3 ) di V, il tensore W si rappresenta come

W = ω (p3 ⊗p2 − p2 ⊗ p3 ) . (13.208)


13.9. TENSORI ANTISIMMETRICI . 133

Proposizione 191 Sia W ∈ Skw (V, V). Allora esiste un unico vettore w detto vettore assiale o croce di
Gibbs di W tale che
W (u) = w ∧ u ∀u ∈V. (13.209)

Dimostrazione Consideriamo la base ortonormale di V (p1 , p2 , p3 ) precedentemente introdotta. Dalla


(13.208) W si rappresenta in tale base come W = ω (p3 ⊗p2 − p2 ⊗ p3 ). Cerchiamo un vettore w =w1 p1 +
w2 p2 + w3 p3 tale che, ∀a ∈V :
W (a) − w ∧ a = 0. (13.210)
Cominciamo con il valutare la quantità W (a):

W (a) =ω (p3 ⊗p2 − p2 ⊗ p3 ) a =ω [(p2 · a) p3 − (p3 · a) p2 ] . (13.211)

Svolgendo il prodotto vettore relativo al secondo addendo:


¡ ¢ ¡ ¢
w ∧ a= w1 p1 + w2 p2 + w3 p3 ∧ a1 p1 + a2 p2 + a3 p3
= εij k wi aj pk
£ ¤ £ ¤ £ ¤
= w2 a3 − w3 a2 p1 + w3 a1 − w1 a3 p2 + w1 a2 − w2 a1 p3 . (13.212)

Uguagliando le componenti di Wa e w ∧ a si ottengono le relazioni

w2 a3 − w3 a2 = 0 ∀a =⇒w2 = w3 = 0, (13.213)

w1 a3 = ωa3 , (13.214)
1 2 2
w a = ωa , (13.215)

ovvero w1 = ω,
w =ωp1 . (13.216)
Poiché p1 è un autovettore di W, esso deve essere diverso dal vettore nullo; è stato inoltre precedentemente
stabilito che se W non è il tensore nullo lo scalare ω è diverso da zero. Da tali considerazioni si deduce che ad
un tensore antisimmetrico W 6= 0 compete un unico vettore assiale w 6= 0.
Andiamo ora a stabilire il legame tra le componenti di un tensore antisimmetrico in una generica base
ortonormale (e1 , e2 , e3 ) di V e le componenti del suo vettore assiale nella stessa base. Posto

W = W ij ei ⊗ ej , w = wk ek , a=ah eh ∈ V,

si ha

W (a)=W ij ak (ei ⊗ ej ) ek = W ij ak (ej · ek ) ei


= W ij ak δ jk ei = W i k ak ei
¡ ¢ ¡ ¢ ¡ ¢
= W 1 2 a2 + W 1 3 a3 e1 + W 2 1 a1 + W 2 3 a3 e2 + W 3 1 a1 + W 3 2 a2 e3
¡ ¢ ¡ ¢ ¡ ¢
= W 1 2 a2 + W 1 3 a3 e1 + W 2 3 a3 − W 1 2 a1 e2 + − W 1 3 a1 − W 2 3 a2 e3 , (13.217)

w ∧ a= εij k wi aj ek
£ ¤ £ ¤ £ ¤
= w2 a3 − w3 a2 e1 + w3 a1 − w1 a3 e2 + w1 a2 − w2 a1 e3 . (13.218)

Uguagliando le componenti si ottengono le relazioni:


¡ 1 3
¢ 2 ¡ 1 2
¢ 3
¡ W 2 2 + w1 ¢ a1 + ¡ W 1 3 − w3 ¢ a2 = 0,
¡ W 1 3 + w2 ¢ a1 − ¡ W 2 2 + w1 ¢ a2 = 0, (13.219)
W 3 − w a + W 3 + w a = 0.

Dalla arbitrarietà di a si giunge all’identificazione:

w1 = − W 2 3 ,
w2 = W 1 3 , (13.220)
3 1
w =−W 2 .
134 CAPITOLO 13. TENSORI DOPPI

Sia W ∈ Skw (V, V) nella forma (13.208); andando a considerare le (13.55), (13.56), (13.57) con la base
(p1 , p2 , p3 ) precedentemente introdotta e tenendo presente la proposizione 190, si ottengono le seguenti
espressioni per gli invarianti di W:
Tr W = W (p1 ) · (p2 ∧ p3 ) + p1 · (W (p2 ) ∧ p3 ) + p1 · (p2 ∧ W (p3 ))
= p1 · (W (p2 ) ∧ p3 ) + p1 · (p2 ∧ W (p3 )) ,
IIW = W (p1 ) · (p2 ∧ W (p3 )) + p1 · (W (p2 ) ∧ W (p3 )) + W (p1 ) · (W (p2 ) ∧ p3 ) (13.221)
= p1 · (W (p2 ) ∧ W (p3 )) ,
det W = W (p1 ) · (W (p2 ) ∧ W (p3 )) = 0.
Dalla proposizione 191 con w =ωp1 si ha
W (p2 ) = ωp1 ∧ p2 = ωp3 ,
(13.222)
W (p3 ) = ωp1 ∧ p3 = −ωp2 ,
da cui
Tr W = ω [p1 · (p3 ∧ p3 ) − p1 · (p2 ∧ p2 )] = 0,
(13.223)
IIW = p1 · (W (p2 ) ∧ W (p3 )) = ω 2 [p1 · (p2 ∧ p3 )] = kwk2 .
Chiudiamo la sezione relativa ai tensori antisimmetrici con la seguente proposizione:

Proposizione 192 Siano u, v ∈ V. Al tensore W = (v ⊗ u − u ⊗ v) ∈ Skw (V, V) è associato il vettore


assiale u ∧ v.

Dimostrazione Dalla (13.17) si ha

W (u ∧ v) = [u· (u ∧ v)] v − [v· (u ∧ v)] u = 0 (13.224)

e quindi, stante la (13.216) il vettore assiale di W è pari a α (u ∧ v), α ∈ IR. Dalla proposizione 191 si ha,
∀a ∈ V

W (a)=α (u ∧ v) ∧ a;
(a · u) v − (a · v) u=α (u ∧ v) ∧ a. (13.225)

Ponendo a = u, moltiplicando scalarmente per v e ricordando le (13.15)


2
(u · u) (v · v) − (u · v) = α [(u ∧ v) ∧ u] · v =α (u ∧ v) · (u ∧ v) . (13.226)

l’assioma (13.13) impone infine che sia α = 1, completando la dimostrazione.

13.10 Tensori ortogonali.


Sia A :V → V una applicazione che conserva il prodotto scalare definito in V, ovvero tale che, ∀u, v ∈ V

A (u) ·A (v) = u · v. (13.227)

In virtù della proposizione 103 A è lineare. Diremo che un tensore Q ∈ Hom (V, V) che goda della precedente
proprietà è ortogonale. Dalla definizione di trasposto si ricava la seguente condizione necessaria e sufficiente
affinché Q sia ortogonale: £ ¤
Q (u) ·Q (v) = v· QT Q (u) =v · u ⇒ QT Q = 1I. (13.228)
Denoteremo con n o
Ort (V, V) := Q | Q ∈ Hom (V, V) & QT Q = QQT = 1I , (13.229)
l’insieme dei tensori ortogonali. Dalla proposizione 165 a dalla (13.90) si deduce che:
¡ ¢
det QT Q = det 1I =⇒
det QT det Q = 1 =⇒ (13.230)
2
(det Q) = 1 ⇒ det Q = ±1.

Un tensore Q ∈ Ort (V, V) è quindi dotato di inversa data da Q−1 = QT . Un tensore avente determinante pari
ad 1 è detto ortogonale proprio, mentre è detto ortogonale improprio nel caso contrario. Si considereranno
nel seguito tensori ortogonali propri.
13.10. TENSORI ORTOGONALI. 135

Proposizione 193 Siano Q, R ∈ Ort (V, V); allora l’applicazione QR è un tensore ortogonale.

Dimostrazione Dalla definizione di trasposto e dalla (13.228) si ha che, ∀u, v ∈V


£ ¤
QR (u) ·QR (v) = R (v) · QT Q R (u) = R (v) · R (u)
£ ¤
= u · RT R (v) = u · v, (13.231)

da cui, stante la (13.227), l’asserto.


Dalla dimostrazione della proposizione precedente si evince che l’insieme Ort (V, V) è chiuso rispetto alla
operazione di composizione tensoriale.

Proposizione 194 Se Q ∈ Ort (V, V) esso possiede un autovalore reale unitario.

Dimostrazione Dalla (13.228) si stabilisce l’identità

QT (Q − I) = − (Q − I)T . (13.232)

Calcolando il determinante di ambo i membri si ottiene


£ ¤
det QT (Q − I) = − det (Q − I)T ,
det Q det (Q − I) = − det (Q − I) ,
det (Q − I) = − det (Q − I) ⇒ det (Q − I) = 0. (13.233)

La precedente è l’equazione caratteristica di cui alla proposizione 75 con A = Q e l’autovalore λ = 1.


In virtù della proposizione precedente, esiste un autovettore p1 (che riterremo normalizzato) tale che

Q (p1 ) = p1 = QT (p1 ) . (13.234)

Esiste dunque una direzione dello spazio V lasciata inalterata dall’azione del tensore ortogonale Q. Analoga-
mente a quanto fatto per i tensori antisimmetrici, scegliamo una base ortonormale (p1 , p2 , p3 ) costituita
dall’autovettore p1 associato all’autovalore λ = 1 e dai vettori p2 , p3 che verifichino:

p1 = p2 ∧ p3 ,
p2 = p3 ∧ p1 ,
(13.235)
p3 = p1 ∧ p2 ,
p1 · (p2 ∧ p3 ) = 1.

Proposizione 195 Sia Q ∈ Ort (V, V) e A = (p1 , p2 , p3 ) la base ortonormale di V precedentemente introdot-
ta. Esiste uno scalare θ ∈]−π, π] tale che, nella base prodotto generata da A, vale la seguente rappresentazione
per Q:
Q = p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) . (13.236)

Dimostrazione Nella base prodotto generata da A il tensore Q si rappresenta come

Q = Qij pi ⊗ pj , (13.237)

con le componenti Qij = pi · Q (pj ) = δ ih δ jk Qhk . Dalla (13.234) e dalla ortonormalità dei vettori pj si ottiene

p2 · Q (p1 ) = p3 · Q (p1 ) = p1 · Q (p2 ) = p1 · Q (p3 ) = 0;


Q21 = Q31 = Q12 = Q13 = 0, (13.238)

p1 · Q (p1 ) = Q11 = 1. (13.239)


Dalla (13.227) p2 · p3 = Q (p2 ) · Q (p3 ) = 0, da cui (p2 , p3 ) e (Q (p2 ) , Q (p3 )) sono coppie di vettori di modulo
unitario tra loro ortogonali rispetto al prodotto scalare definito in V. Ciascuno dei quattro è a sua volta
ortogonale al vettore p1 . È quindi lecito scrivere

Q (p2 ) = αp2 + βp3 ,


(13.240)
Q (p3 ) = γp2 + δp3 ,
con
|Q (p2 )|2 = Q (p2 ) · Q (p2 ) = α2 + β 2 = 1,
|Qp3 |2 = Q (p3 ) · Q (p3 ) = γ 2 + δ 2 = 1, (13.241)
Q (p2 ) · Q (p3 ) = αγ + βδ = 0.
136 CAPITOLO 13. TENSORI DOPPI

È possibile ottenere una ulteriore relazione per i quattro parametri α, β, γ, δ dal determinante di Q:

det Q = 1 = Q (p1 ) · (Q (p2 ) ∧ Q (p3 ))


= p1 · [(αp2 + βp3 ) ∧ (γp2 + δp3 )]
= αδ − βγ = 1. (13.242)

Le quattro relazioni implicano l’esistenza di uno scalare θ ∈] − π, π] tale che

α = δ = cos θ,
(13.243)
β = −γ = sin θ.

l’insieme delle coordinate Qij è conseguentemente completato dalle

p2 · Q (p3 ) = −p3 · Q (p2 ) = − sin θ,


(13.244)
p2 · Q (p2 ) = p3 · Q (p3 ) = cos θ,
ovvero
Q32 = −Q23 = sin θ,
(13.245)
Q22 = Q33 = cos θ.
Il tensore Q si rappresenta quindi come

Q = Q11 p1 ⊗ p1 + Q22 (p2 ⊗ p2 + p3 ⊗ p3 ) + Q23 (p2 ⊗ p3 − p3 ⊗ p2 )


= p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) . (13.246)

La matrice delle componenti di Q nella base A, nota come matrice di rotazione, è


⎛ ⎞
1 0 0
Q = ⎝0 cos θ − sin θ⎠ . (13.247)
0 sin θ cos θ

Andiamo ora a calcolare gli autovalori Q, ovvero le radici del polinomio caratteristico

det (Q − λI) = 0. (13.248)

Tale polinomio in λ ha la forma


⎛ ⎞
1−λ 0 0 h i
det ⎝ 0 cos θ − λ − sin θ ⎠ = (1 − λ) (cos θ − λ)2 + sin2 θ
0 sin θ cos θ − λ
¡ ¢
= (λ − 1) λ2 − 2λ cos θ + 1 . (13.249)

Le radici sono λ1 = 1 (si ritrova la proprietà precedentemente stabilita) e


p p
λ2,3 = cos θ ± cos2 θ − 1 = cos θ ± − sin2 θ. (13.250)

Se θ 6= 0, π, |sin θ| > 0 e quindi il discriminante dell’equazione quadratica è negativo. Ricordando l’identità


di Eulero gli autovalori λ2, λ3 sono i due complessi coniugati

λ2,3 = cos θ ± i sin θ = e±iθ , i = −1. (13.251)

Diamo ora una interpretazione geometrica dell’azione di un tensore Q ∈ Ort (V, V) su un vettore x ∈V. Siano
Q ∈ Ort (V, V) ed x ∈V rispettivamente un tensore ortogonale ed un vettore rappresentati nella base A come

Q = p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) ,


x=xj pj . (13.252)

l’azione di Q su x è data da

Q (x)= [p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 )] (x)


= (p1 · x) p1 + [(p2 · x) cos θ − (p3 · x) sin θ] p2 + [(p3 · x) cos θ + (p2 · x) sin θ] p3
¡ ¢ ¡ ¢
= x1 p1 + x2 cos θ − x3 sin θ p2 + x3 cos θ + x2 sin θ p3 . (13.253)
13.10. TENSORI ORTOGONALI. 137


Definito
¡ 1 il numero complesso
¢ z = x2 + ix3 , i = −1, le componenti del vettore x nella base A in termini di z
¡sono x , Re z, Im z ¢, mentre le componenti del vettore Q (x) nella stessa base ed ancora in termini di z sono
x1 , Re zeiθ , Im zeiθ , essendo
¡ ¢
zeiθ = x2 + ix3 (cos θ + i sin θ)
¡ ¢ ¡ ¢
= x2 cos θ − x3 sin θ + i x3 cos θ + x2 sin θ . (13.254)

l’effetto di Q è quindi quello di trasportare il vettore x in un vettore Q (x) ruotato rispetto all’originale di un
angolo θ intorno alla direzione p1 . Come anticipato dalle 13.234, esiste una direzione dello spazio che non
risente dell’azione di Q; tale direzione è quella dell’autovettore p1 relativo all’autovalore λ = 1.

Proposizione 196 Gli elementi dell’insieme Ort (V, V) con dim V = 3 sono ∞3 .

Dimostrazione Dall’esempio precedente si evince che Ort (V, V) è in corrispondenza biunivoca (e bicon-
tinua) con l’insieme S 2 × S 1 , dove S 2 è la superficie della sfera di raggio kp1 k = 1 ed S 1 è la circonferenza di
¯ iθ ¯ p
raggio ¯e ¯ = cos θ + sin2 θ = 1. Poiché S 2 è descritta da due parametri, mentre S 1 è data al variare di θ,
2

ne discende l’asserto.

13.10.1 Angoli di Eulero.


Una scelta possibile dei tre parametri di cui alla proposizione precedente è data dagli angoli di Eulero.
Siano V = (v1 , v2 , v3 ) e W = (w1 , w2 , w3 ) due basi ortonormali dello spazio vettoriale V e siano

Πv = span (v1 , v2 ) ,
(13.255)
Πw = span (w1 , w2 ) ,

le due giaciture individuate rispettivamente dagli assi v1 , v2 e w1 , w2 . L’intersezione dei piani Πv Πw definisce
una retta detta linea dei nodi; indicheremo con ν ∈V il versore che ne da la direzione in V. Il primo angolo
di Eulero è lo scalare ψ ∈ ]−π, π] individuato dalla

cos ψ = v1 · ν, (13.256)

ovvero è l’angolo formato da v1 e ν. Si consideri ora il tensore ortogonale

Qψ = v3 ⊗ v3 + cos ψ (v1 ⊗ v1 + v2 ⊗ v2 ) − sin ψ (v1 ⊗ v2 − v2 ⊗ v1 ) , (13.257)

corrispondente ad una rotazione antioraria di ampiezza ψ intorno all’asse v3 . Si ha

Qψ (v1 ) = (v3 · v1 ) v3 + cos ψ [(v1 · v1 ) v1 + (v2 · v1 ) v2 ] − sin ψ [(v2 · v1 ) v1 − (v1 · v1 ) v2 ]


= cos ψv1 + sin ψv2 ; (13.258)

Qψ (v2 ) = (v3 · v2 ) v3 + cos ψ [(v1 · v2 ) v1 + (v2 · v2 ) v2 ] − sin ψ [(v2 · v2 ) v1 − (v1 · v2 ) v2 ]


= − sin ψv1 + cos ψv2 . (13.259)

Dalla (13.256) discende che Qψ v1 = ν. Definiamo la nuova base

A = (Qψ (v1 ) , Qψ (v2 ) , Qψ (v3 )) = (ν, Qψ (v2 ) , v3 ) , (13.260)

ovvero, nella base V


⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎛ ⎞
ν v1 cos ψ sin ψ 0 v1
A = ⎝Qψ (v2 )⎠ = Qψ ⎝v2 ⎠ = ⎝− sin ψ cos ψ 0⎠ ⎝v2 ⎠ , (13.261)
v3 v3 0 0 1 v3

dove Qψ è la matrice ortogonale associata al cambiamento di base da V ad A; è facile verificare che essa è la
matrice associata al tensore Qψ nella base V. Il secondo angolo di Eulero è lo scalare φ ∈ ]−π, π] definito
dalla
cos φ = v3 · w3 , (13.262)
ovvero è l’angolo formato dalle due giaciture Πv Πw . Definiamo il tensore ortogonale

Qφ = ν ⊗ ν + cos φ (Qψ (v2 ) ⊗ Qψ (v2 ) + v3 ⊗ v3 ) − sin φ (Qψ (v2 ) ⊗ v3 − v3 ⊗ Qψ (v2 )) , (13.263)


138 CAPITOLO 13. TENSORI DOPPI

corrispondente ad una rotazione antioraria intorno all’asse ν. Con riferimento ai vettori della base A, esso
lascia inalterato ν mentre trasporta Qψ (v2 ) in

Qφ (Qψ (v2 )) = cos φQψ (v2 ) + sin φv3 , (13.264)

e v3 in
Qφ (v3 ) = cos φv3 − sin φQψ (v2 ) = w3 , (13.265)
dalla (13.262). L’applicazione successiva dei tensori Qψ e Qφ , ovvero del tensore (Qφ Qψ ) produce l’effetto di
trasportare i vettori v1 e v2 sul piano Πw ed il vettore v3 sul vettore w3 . Sia

B = (Qφ (Qψ (v1 )) , Qφ (Qψ (v2 )) , Qφ Qψ v3 ) = (ν, Qφ (Qψ (v2 )) , w3 ) , (13.266)

la base che si ottiene da A applicando ad essa Qφ ; si ha


⎛ ⎞ ⎛ ⎞ ⎛ ⎞
ν ν v1
B = ⎝Qφ (Qψ (v2 ))⎠ = Qφ ⎝Qψ (v2 )⎠ = Qφ Qψ ⎝v2 ⎠
w3 v3 v3
⎛ ⎞⎛ ⎞⎛ ⎞
1 0 0 cos ψ sin ψ 0 v1
= ⎝0 cos φ sin φ ⎠ ⎝− sin ψ cos ψ 0⎠ ⎝v2 ⎠ , (13.267)
0 − sin φ cos φ 0 0 1 v3

dove Qφ è la matrice ortogonale associata al cambiamento di base da A a B; tale matrice è associata al tensore
Qφ quando sia stata scelta la base A. La matrice composta
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 0 0 cos ψ sin ψ 0 cos ψ sin ψ 0
Qφ Qψ = ⎝0 cos φ sin φ ⎠ ⎝− sin ψ cos ψ 0⎠ = ⎝− cos φ sin ψ cos ψ cos φ sin φ ⎠ , (13.268)
0 − sin φ cos φ 0 0 1 sin ψ sin φ − cos ψ sin φ cos φ

è invece quella associata al tensore (Qφ Qψ ) quando sia stata scelta la base V. Definiamo terzo angolo di
Eulero lo scalare ϑ ∈ ]−π, π] dato da
cos ϑ = ν · w1 , (13.269)
ovvero l’angolo formato dalla linea dei nodi e l’asse w1 della base W. Considerato il tensore ortogonale
¡ ¢
Qϑ = w3 ⊗ w3 + cos ϑ ν ⊗ ν + Qφ (Qψ (v2 )) ⊗ Qφ (Qψ (v2 ))
− sin ϑ (ν ⊗ Qφ (Qψ (v2 )) − Qφ (Qψ (v2 )) ⊗ ν) , (13.270)

corrispondente ad una rotazione antioraria di ampiezza ϑ intorno all’asse w3 , esso trasporta ν in w1 e


Qφ (Qψ (v2 )) in w2 lasciando inalterato w3 . Quindi
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 ν v1
W = ⎝w2 ⎠ = Qϑ ⎝Qφ (Qψ (v2 ))⎠ = Qϑ Qφ Qψ ⎝v2 ⎠ . (13.271)
w3 w3 v3

La matrice ⎛ ⎞
cos ϑ sin ϑ 0
Qϑ = ⎝− sin ϑ cos ϑ 0⎠ , (13.272)
0 0 1
è quella associata al tensore Qϑ quando sia scelta la base B, e la matrice
⎛ ⎞
cos ϑ cos ψ − cos φ sin ψ sin ϑ cos ϑ sin ψ + cos ψ cos φ sin ϑ sin φ sin ϑ
Qϑ Qφ Qψ = ⎝− cos ψ sin ϑ − cos φ cos ϑ sin ψ − sin ψ sin ϑ + cos ψ cos φ cos ϑ cos ϑ sin φ⎠ , (13.273)
sin ψ sin φ − cos ψ sin φ cos φ

è quella associata al tensore (Qϑ Qφ Qψ ) quando sia scelta la base V. La precedente è la rappresentazione
di un tensore ortogonale attraverso gli angoli di Eulero. La somma di due rotazioni si esprime quindi nella
composizione di due matrici ortogonali dipendenti dalle ampiezze di tali rotazioni. Si consideri ad esempio
una base V ed una base W ottenuta dalla prima a seguito di due rotazioni di ampiezza rispettiva β e γ intorno
all’asse v1 . Si ha ⎛ ⎞ ⎛ ⎞⎛ ⎞
w1 1 0 0 v1
⎝w2 ⎠ = ⎝0 cos (β + γ) sin (β + γ) ⎠ ⎝v2 ⎠ . (13.274)
w3 0 − sin (β + γ) cos (β + γ) v3
13.11. TEOREMA DI DECOMPOSIZIONE ADDITIVA. 139

Dalle considerazioni precedenti si ha inoltre


⎛ ⎞ ⎛ ⎞
w1 v1
⎝w2 ⎠ = Qβ Qγ ⎝v2 ⎠ , (13.275)
w3 v3
con
⎛ ⎞⎛ ⎞
1 0 0 1 0 0
Qβ Qγ = ⎝0 cos β sin β ⎠ ⎝0 cos γ sin γ ⎠
0 − sin β cos β 0 − sin γ cos γ
⎛ ⎞
1 0 0
= ⎝0 cos β cos γ − sin β sin γ cos β sin γ + cos γ sin β ⎠ , (13.276)
0 − cos β sin γ − cos γ sin β cos β cos γ − sin β sin γ
da cui, operando l’identificazione
⎛ ⎞ ⎛ ⎞
1 0 0 1 0 0
⎝0 cos (β + γ) sin (β + γ) ⎠ = ⎝0 cos β cos γ − sin β sin γ cos β sin γ + cos γ sin β ⎠ , (13.277)
0 − sin (β + γ) cos (β + γ) 0 − cos β sin γ − cos γ sin β cos β cos γ − sin β sin γ
si ritrovano le ben note formule di addizione per le funzioni trigonometriche.

13.11 Teorema di decomposizione additiva.


Proposizione 197 Sia V uno spazio vettoriale finito dimensionale dotato di un prodotto scalare non degenere,
definito positivo a valori in IR. Lo spazio degli endomorfismi di V ammette la decomposizione in somma diretta
Hom (V, V) = Sym (V, V) ⊕ Skw (V, V) . (13.278)
Dimostrazione Come stabilito dalle proposizioni 177 ,185 Sym (V, V) e Skw (V, V) sono sottospazi di
Hom (V, V).
Poiché ogni elemento L ∈ Hom (V, V) può comunque essere scritto come somma di una parte simmetrica
S e di una parte antisimmetrica W date da
L=S+ ¡ W, ¢
S = 12 ¡L + LT ¢∈ Sym (V, V) , (13.279)
W = 12 L − LT ∈ Skw (V, V) ,
la proposizione 2.14 afferma che è individuata la somma
Hom (V, V) = Sym (V, V) + Skw (V, V) . (13.280)
Per completare la dimostrazione, ovvero affinché la precedente somma si specializzi in somma diretta, dalla
proposizione 29 occorre che sia Sym (V, V) ∩ Skw (V, V) = {0}. A tal fine sia L ∈ Sym (V, V) ∩ Skw (V, V).
L deve soddisfare la condizione
L = LT ed L = −LT , (13.281)
ovvero L = 0.
Siano S ∈ Sym (V, V), W ∈ Skw (V, V) con dim V =3. Eseguendo il prodotto scalare tra i due, dalla
linearità dell’operatore traccia (cfr. la proposizione 163) e dalle (13.88), proposizione 158, (13.89):
³ ´ ∙³ ´T ¸
T T
S · W = Tr SW = Tr SW
h i £ ¤
= Tr WST = − Tr WT S
h i
= − Tr SWT = 0. (13.282)

Gli spazi Sym (V, V) e Skw (V, V) risultano quindi ortogonali rispetto al prodotto scalare definito in Hom(V, V).
In definitiva
Sym (V, V) ⊥ Skw (V, V) , (13.283)
ed in virtù della proposizione 7.17
Hom (V, V) = Sym (V, V) ⊕ Sym (V, V)⊥
= Sym (V, V) ⊕ Skw (V, V) . (13.284)
Si noti che, ancora dalla proposizione 7.17, dim Hom (V, V) = dim Sym (V, V) + dim Skw (V, V) = 6 + 3 = 9.
140 CAPITOLO 13. TENSORI DOPPI

13.12 Teorema di decomposizione polare.


Proposizione 198 Associate ad ogni endomorfismo invertibile L ∈ Hom (V, V) esistono e sono uniche le due
decomposizioni moltiplicative (rispettivamente decomposizione polare destra e decomposizione polare
sinistra)
L = RU = VR, (13.285)
dove R ∈ Ort (V, V) è ortogonale ed U, V ∈ Sym (V, V) sono endomorfismi simmetrici definiti positivi.

Dimostrazione Dalla proposizione 184 le applicazioni LT L ed LLT risultano simmetriche definite positive.
La proposizione 182 afferma per ognuna di esse l’esistenza di un’ unica radice quadrata anch’ essa simmetrica
definita positiva. Posto
¡ ¢1/2 ³ ´1/2
U := LT L , V := LLT , (13.286)

i tensori Q = LU−1 , R = LV−1 risultano entrambi ortogonali in quanto


¡ ¢T ¡ ¢
QT Q = LU−1 LU−1 = U−1 LT L U−1
= U−1 U2 U−1 = 1I; (13.287)
¡ ¢T ¡ ¢
RRT = V−1 L LV−1 = V−1 LT L V−1
= V−1 V2 V−1 = 1I. (13.288)

Si ha dunque
L = QU = VR. (13.289)
Andiamo ora a dimostrare l’unicità. Supponiamo che L ammetta una seconda decomposizione polare sinistra
L=Ve R.
e Il calcolo di LLT porge
³ ´T ³ ´
eR
LLT = V e V
eRe e R
=V eR
eT Ve=V
e 2. (13.290)

e = V; finalmente
Ancora dalla proposizione 182 segue che V
e=V
R e −1 L = V−1 L = R. (13.291)

Con argomentazione analoga si dimostra l’unicità della decomposizione polare destra. Per completare la
dimostrazione occorre provare che Q = R. Essendo R ortogonale e dal fatto che V possiede una ed una
soltanto radice quadrata simmetrica definita positiva si ha
³ ´ ¡ ¢
L = QU = RRT VR = R RT VR
∙³ ´T ³ ´¸
= R V1/2 R V1/2 R . (13.292)

¡ ¢
La precedente identifica QU ed R RT VR come due decomposizioni polari destre tra loro equivalenti con

Q = R, (13.293)
U = RT VR. (13.294)

Quest’ultima è la relazione tra U e V, parti simmetriche della decomposizione polare destra e sinistra.
È interessante notare il parallelismo con la rappresentazione polare del numero complesso z = reiθ ; i
tensori simmetrici definiti positivi U e V sono l’analogo del modulo r, mentre la rotazione del piano complesso
eiθ trova il suo analogo nel tensore ortogonale R.

13.13 Il teorema di commutazione.


Dati due tensori A e B, diremo che essi commutano se soddisfano la relazione:

AB = BA. (13.295)

Fissato un autovalore del tensore A ∈ Sym (V, V) , denoteremo con E (λ) il sottospazio di V (cfr. sezione
6.2) generato dagli autovettori di A relativi a λ. Sia (v1 , v2 , v3 ) la base di V costituita dagli autovettori di A
13.13. IL TEOREMA DI COMMUTAZIONE. 141

(cfr. proposizione 118) e siano (λ1 , λ2 , λ3 ) i relativi autovalori contati con la propria molteplicità geometrica.
Secondo la notazione utilizzata si ha:

λi = λj =⇒ E (λi ) = E (λj ) . (13.296)

Enunciamo ora la seguente proposizione, nota come teorema di commutazione.

Proposizione 199 Siano A ∈ Sym (V, V), B ∈ Hom (V, V).

1. Se A e B commutano, allora gli autospazi di A (cfr. sezione 13.6 ed il Capitolo 6) sono invarianti sotto
B, ovvero si ha che se λ è un autovalore di A con associato autospazio E (λ) ⊂ V allora, considerato
v ∈E (λ) si ha B (v) ∈E (λ) .
2. Se gli autospazi di un tensore simmetrico A sono invarianti sotto B, allora A e B commutano.

Dimostrazione
1. Siano A e B tali che per essi valga la (13.295), e sia A (v) = λv. Allora

A (B (v)) = B (A (v)) = B (λv) = λB (v) , (13.297)

dal quale si evince che dal supporre che v sia un autovettore per A con autovalore associato λ, porta a
stabilire che B (v) appartiene a sua volta all’autospazio E (λ) contenente v.
2. Si scelga un vettore u e si consideri la sua decomposizione
X
u = αi vi , (13.298)
i

secondo una base di autovettori (v1 , v2 , v3 ) di A (che esiste in virtù della proposizione 118 nella Parte
I). Dalla ipotesi che gli autospazi siano invarianti sotto B, si ha che se vi ∈ E (λi ) , allora i vettori
B (vi ) ∈ E (λi ) . Si può quindi scrivere:

A (B (vi )) = λi B (vi ) = B (λi vi ) = B (A (vi )) . (13.299)

Si conclude dunque che


X X
A (B (u)) = A (B (vi )) = B (A (vi )) = B (A (u)) ⇒ AB = BA, (13.300)
i i

data l’arbitrarietà di u.

Si consideri ora un tensore S ∈ Sym (V, V) tale che:

SQ = QS, ∀Q ∈ Ort+ (V, V) , (13.301)

la quale, in virtù della proposizione precedente, si traduce nella proprietà che ogni autospazio di S è invariante
sotto tutte le rotazioni4 . Tuttavia gli autospazi di S sono sottospazi di V. Attraverso la seguente proposizione
stabiliremo che l’unico sottospazio di V invariante rispetto a tutte le rotazioni è V stesso.

Proposizione 200 Sia E (λ) un autospazio associato ad un tensore simmetrico S ∈ Sym (V, V) tale che

∀Q ∈ Ort+ (V, V) , ∀v ∈ E (λ) : Q (v) ∈ E (λ) . (13.302)

Allora, necessariamente:
E (λ) = V. (13.303)

Dimostrazione Poiché S è simmetrico, l’autospazio E (λ) è diverso dal sottospazio nullo (cfr. proposizione
118). È quindi lecito considerare un vettore non nullo v ∈ E (λ) ; inoltre, dovendo la (13.302) essere vera per
ogni tensore ortogonale proprio, è possibile considerare

P, Q, R ∈ Ort+ , (13.304)
4 In questo contesto si intende per rotazione un tensore ortogonale proprio (cfr. sezione 13.10).
142 CAPITOLO 13. TENSORI DOPPI

tali che:
P (v) · Q (v) = 0, P (v) · R (v) = 0, Q (v) · R (v) = 0, (13.305)
la quale insieme alla (13.302) afferma che {P (v) , Q (v) , R (v)} è un insieme di tre vettori linearmente indipen-
denti in E (λ). Si ha quindi
dim E (λ) = 3, (13.306)
onde l’asserto.
Dalla definizione di molteplicità geometrica di un autovalore (sezione 6.5), si ha che per avere dim E (λ) = 3
occorre necessariamente che il tensore simmetrico S possegga tre autovalori coincidenti, per cui S deve essere
sferico:
S = λ1I, λ ∈ IR. (13.307)
Ne discende la seguente:

Proposizione 201 Un tensore simmetrico che commuta con tutti i tensori ortogonali propri è sferico.
Capitolo 14

CENNI DI ANALISI TENSORIALE

Prerequisito alla lettura di questo Capitolo è la conoscenza dei contenuti del Capitolo 1.

14.1 Spazi affini.


Sia V uno spazio vettoriale ed A un insieme. Diremo spazio affine la terna (A, V, ∆) , dove

∆ : A × A → V, (14.1)

è una applicazione detta di traslazione soddisfacente i seguenti assiomi:

∆ (x, y) = ∆ (x, z) + ∆ (z, y) , x, y, z ∈ A, (14.2)


∀x ∈ A, ∀v ∈ V, ∃!y ∈ A : ∆ (x, y) = v. (14.3)

Gli elementi dell’insieme A sono detti punti, e V è detto spazio delle traslazioni. Quando V è dotato di
un prodotto scalare, A è detto spazio puntuale euclideo. Nel seguito, con abuso di notazione, utilizzeremo
per brevità lo stesso simbolo per lo spazio affine e per l’insieme dei punti.
Il vettore ∆ (x, y) ∈ V, x, y ∈ A, rappresenta la traslazione di punto iniziale y e punto finale x. l’assioma
(14.3) equivale alla richiesta che la funzione

∆x : A → V, (14.4)

definita come
∆x (y) := ∆ (x, y) , x, y ∈ A, (14.5)
sia biiettiva per ogni x, ovvero che, fissato x ∈ A essa stabilisca una corrispondenza biunivoca tra punti di A
e vettori di V. La dimensione di A è per definizione pari alla dimensione del suo spazio delle traslazioni.
È possibile dotare di struttura affine1 uno spazio vettoriale V definendo nel seguente modo l’operazione
differenza tra punti:
∆ (u, v) := u − v, ∀u, v ∈V. (14.6)
La circostanza precedente suggerisce l’introduzione della seguente notazione

∆ (x, y) ≡ x − y, x, y ∈ A, (14.7)

per l’operazione differenza tra punti. Pur essendo denotata allo stesso modo, tale operazione è ovviamente
ben distinta dalla differenza tra scalari e tra vettori come definite rispettivamente in un campo e in uno spazio
vettoriale. Tuttavia non tutti gli spazi affini possono essere costruiti in questo modo a partire da uno spazio
vettoriale.
La seguente proposizione dimostra che l’operazione differenza fra punti ha alcune proprietà in comune con
la differenza fra vettori.

Proposizione 202 Sia A uno spazio affine ed x, y, x0 , y 0 ∈ A. Valgono le seguenti proprietà:

x − x = 0, (14.8)
x − y = − (y − x) , (14.9)
x − y = x0 − y 0 ⇒ x − x0 = y − y 0 . (14.10)
1 Si lascia allo studioso lettore verificare che gli assiomi (14.2) e (14.3) quando U sia identificato con V stesso.

143
144 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Dimostrazione Per ottenere la (14.8) si consideri la (14.2) con x = y = z :

x − x = (x − x) + (x − x) , (14.11)

la quale implica x − x = 0. Analogamente, ponendo x = y nella (14.2) si ha

x − x = (x − z) + (z − x) , (14.12)

da cui, tenendo conto della (14.8), discende la (14.9).


Siano ora x, y, x0 , y 0 ∈ A; l’assioma (14.2) permette di stabilire la seguente catena di uguaglianze:

x − y 0 = (x − y) + (y − y 0 ) = (x − x0 ) + (x0 − y 0 ) . (14.13)

Per ipotesi si ha tuttavia x − y = x0 − y 0 , onde la (14.10).


La notazione introdotta nella (14.7) permette di rileggere l’assioma (14.3) nel seguente modo: scelti y ∈ A
e v ∈V è determinato univocamente un punto di A (denotato come x (y, v)) tale che x (y, v)−y = v. Possiamo
introdurre la applicazione
+ : A×V →A, (14.14)
per mezzo della
x (y, v) = y + v. (14.15)
La precedente applicazione è detta somma di un punto e di un vettore. Essa può essere interpretata
geometricamente notando che l’azione di un vettore dello spazio delle traslazioni su un punto del relativo
spazio affine è quello di “trasportare” in un altro punto che risulta univocamente determinato dal punto di
partenza e dal vettore di traslazione.
Lo spazio dei posti che possono essere occupati dalle particelle materiali nella cinematica galileiana è uno
spazio affine tridimensionale. Questa affermazione sarà approfondita nel Capitolo 16, dedicato appunto a tale
cinematica.

14.2 Applicazioni affini.


Sia A uno spazio affine e V il suo spazio delle traslazioni. Una applicazione

A : A → A, (14.16)

è detta affine se, ∀x, y ∈ A, ∀v ∈ V, ∀α ∈ IR :

A (x + v) − A (x) = A (y + v) − A (y) , (14.17)


A (x + αv) − A (x) = α [A (x + v) − A (x)] . (14.18)

La proprietà (14.17) afferma che la differenza (A (x + v) − A (x)) ∈ V è indipendente dal punto x considerato,
ed è dunque funzione soltanto del vettore v ∈ V. È quindi lecito introdurre la funzione

LA : V → V, (14.19)

definita come
LA (v) := A (x + v) − A (x) . (14.20)
Come apparirà chiaro dall’enunciato, la seguente proposizione è detta teorema di rappresentazione
per le applicazioni affini.

Proposizione 203 Sia A uno spazio affine e V il suo spazio delle traslazioni. Una applicazione

A : A → A, (14.21)

è affine solo se l’applicazione


LA : V → V, (14.22)
è lineare. Ovviamente, ∀x, y ∈ A
A (x) − A (y) = LA (v) , (14.23)
se v =x − y.
14.3. CONTINUITÀ E DIFFERENZIABILITÀ. CAMPI. 145

Dimostrazione Occorre verificare che l’applicazione

LA (v) = A (x) − A (y) = A (y + v) − A (y) , (14.24)

è lineare. Si consideri a tal proposito un punto h ∈ A. La (14.17) porge

A (y + v) − A (y) = A (h + v) − A (h) . (14.25)

In virtù dell’assioma (14.3), esiste ed è unico w ∈ V tale che w =y − h; sostituendo nella precedente:

A (h + (v + w)) − A (h + w) = A (h + v) − A (h) . (14.26)

Sommando ora a primo membro il vettore nullo A (h) − A (h) e raggruppando opportunamente i termini si
ottiene
[A (h + (w + v)) − A (h)] − [A (h + w) − A (h)] = A (h + v) − A (h) , (14.27)
da cui
LA (v + w) = LA (v) + LA (w) . (14.28)
Sia ora α ∈ IR. La proprietà
LA (αv) = αLA (v) , (14.29)
è immediata conseguenza dell’assioma (14.18) essendo

LA (αv) = A (h + αv) − A (h) = α [A (h + v) − A (h)] = αLA (v) , ∀h ∈ A. (14.30)

Proposizione 204 Siano LA : V → V una applicazione lineare e z un elemento di A. Allora l’applicazione

A : A → A, (14.31)

definita da2
A (x) = z + L (x − y) , ∀x, y ∈ A. (14.32)
è affine.

Dimostrazione Banale. Viene lasciata, come esercizio, allo studioso lettore.


Una applicazione affine si rappresenta quindi univocamente nel modo indicato nelle proposizioni precedenti.
Se y ∈ A è un punto di uno spazio affine e v ∈V un vettore del suo spazio delle traslazioni, il trasformato
di x = y + v sotto l’applicazione affine A : A → A si ottiene sommando all’immagine del punto y, A (y) , il
vettore LA (v) . Il termine A (y) è detto parte affine, mentre LA (v) è la parte lineare di A. Nel seguito la
parte lineare LA della applicazione affine A verrà denotata semplicemente con L

14.3 Continuità e differenziabilità. Campi.


Sia E uno spazio puntuale euclideo e V il suo spazio delle traslazioni. Diremo distanza tra due punti x, y ∈ E
l’applicazione
d : (x, y) ∈ E × E →d (x, y) ∈ IR, (14.33)
definita in termini del prodotto scalare introdotto in V :
p
d (x, y) := (x − y) · (x − y). (14.34)

Si noti che la distanza tra due punti x ed y di E corrisponde al modulo del vettore (x − y) ∈ V. Diremo sfera
aperta di raggio ε centrata in x0 ∈ E il sottoinsieme di E

Bε (x0 ) := {x : d (x, y) < ε} , ε > 0, (14.35)

dei punti aventi distanza da x0 minore di un dato reale positivo ε. Analogamente, diremo sfera chiusa di
raggio ε il sottoinsieme di E
B ε (x0 ) := {x : d (x, y) ≤ ε} , ε > 0. (14.36)
2 Risulta ovviamente dalla definizione che A (y) = z.
146 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Un intorno di un punto x ∈ E è un insieme contenente almeno una sfera aperta centrata in x. Relativa-
mente ad un sottoinsieme U di E diremo punto interno, punto esterno e punto di frontiera rispettiva-
mente un punto che possegga almeno un intorno completamente contenuto in U, un punto che possegga almeno
un intorno non contenente nessun punto di U ed infine un punto avente tutti gli intorni contenenti almeno un
punto di U ed almeno un punto non appartenente ad U. La totalità dei punti interni è detta interno, mentre
la totalità dei punti di frontiera è detta frontiera. Il sottoinsieme U è aperto se coincide con il suo interno, è
limitato se è incluso in almeno una sfera aperta ed è connesso se ogni coppia di punti in esso contenuti può
essere congiunta con una curva continua completamente contenuta in U. Un dominio di E è un sottoinsieme
di E aperto e connesso ed una regione di E è un sottoinsieme connesso di E il cui interno è non vuoto e che
contiene la sua frontiera.
Siano E, E0 due spazi puntuali euclidei e sia U ⊂ E un aperto. Una applicazione

f : U → E0 , (14.37)

ha limite in x0 ∈ E se

∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d0 (f (x) , ) < ε. (14.38)

Nella precedente d e d0 denotano rispettivamente le distanze in E ed E0 . La applicazione f è continua in x0


se
lim f (x) = f (x0 ) . (14.39)
x→x0

Diremo che f è continua in U se è continua in ogni punto x ∈ U.

Proposizione 205 Siano E, E0 , E00 tre spazi puntuali euclidei ed U ⊂ E, U0 ⊂ E0 due aperti. Siano inoltre

f : U → U0 , g : U0 → E00 , (14.40)

due applicazioni continue. L’applicazione composta

h : U → E00 , h := g ◦ f, (14.41)

è continua.

Dimostrazione Dall’ipotesi che f sia continua si ha che

∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d0 (f (x) , f (x0 )) < ε, (14.42)

per ogni x, x0 ∈ U. Sia poi


x0 = f (x) ∈ U0 , (14.43)
il valore della funzione f in x. Dall’ipotesi che g sia continua discende che

∀ε0 > 0 ∃δ 0 (x00 , ε0 ) > 0 : d0 (x0 , x00 ) < δ 0 (x00 , ε0 ) ⇒ d00 (g (x0 ) , g (x00 )) < ε0 , (14.44)

avendo indicato con d00 la distanza in E00 . Combinando le precedenti espressioni si ottiene

∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d00 (g (f (x)) , g (f (x0 ))) < ε, (14.45)

ovvero, dalla definizione di h

∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d00 (h (x) , h (x0 )) < ε. (14.46)

Consideriamo di nuovo due spazi puntuali euclidei E, E0 ed i rispettivi spazi delle traslazioni V, V0 . Sia
inoltre U ⊂ E un aperto; una applicazione
f : U → E0 , (14.47)
è differenziabile in x ∈ U se esiste una trasformazione lineare Lf,x ∈ Hom (V, V0 ) tale che

f (x + v) = f (x) + Lf,x (v) + o (x, v) , ∀v ∈ V, (14.48)

dove
o (x, v)
lim = 0. (14.49)
v→0 |v|
14.3. CONTINUITÀ E DIFFERENZIABILITÀ. CAMPI. 147

Proposizione 206 l’applicazione Lf,x di cui alla (14.48) è unica.


Dimostrazione Supponiamo che esistano due applicazioni lineari Lf,x ed Lf,x soddisfacenti la (14.48).
Sottraendo le due espressioni corrispondenti si ottiene
£ ¤
Lf,x − Lf,x (v) = o (x, v) − o (x, v) , ∀v ∈ V, (14.50)
v
Sia ora |v| = α 6= 0 e sia u = il corrispondente vettore di modulo unitario Utilizzando la linerità di Lf,x ed
α
Lf,x , dalla (14.49) discende che
£ ¤ £ ¤ o (x, v) − o (x, v)
Lf,x − Lf,x (u) = lim Lf,x − Lf,x (u) = lim = 0, (14.51)
v→0 v→0 α
∀u ∈ V : |u| = 1.
La precedente implica che Lf,x = Lf,x .
Se f è differenziabile in ogni punto del suo dominio U, è possibile definire l’applicazione
gradf : U →Hom (V, V0 ) , (14.52)
detta gradiente di f e definita da
gradf (x) := Lf,x , x ∈ U. (14.53)
Se gradf è continua in U, allora f è di classe C . In generale, f è di classe C , k > 0, se è di classe C k−1 e
1 k
k−1
se il suo (k − 1) esimo gradiente, gradf, è di classe C 1 . Se f ∈ C k (U) ha inversa f −1 che pure è di classe
C k in f (U) , allora f è detta C k diffeomorfismo.
Se f è differenziabile in x, sostituendo nella (14.48) v con τ v, τ > 0, segue che (si tenga presente che Lf,x
è lineare)
f (x + τ v) − f (x) o (x, τ v)
Lf,x (v) = − . (14.54)
τ τ
Dalla (14.49) si ha inoltre che
o (x, τ v)
lim = 0, (14.55)
τ →0 τ
da cui ¯
f (x + τ v) − f (x) d ¯
Lf,x (v) = lim ≡ f (x + τ v)¯¯ , ∀v ∈V. (14.56)
τ →0 τ dτ τ =0
La precedente vale per ogni v ∈V in quanto è sempre possibile scegliere τ sufficientemente piccolo affinché
(x + τ v) ∈ U. Se f ∈ C 1 (U) , ovvero è differenziabile in ogni punto x ∈ U, è possibile riscrivere la (14.56)
come ¯
d ¯
[gradf (x)] (v) = f (x + τ v)¯¯ , ∀v ∈V. (14.57)
dτ τ =0
Una applicazione f : U →IR, dove U ⊂ E è un aperto, è detta campo scalare in U. Analogamente, f : U →V è
detta campo vettoriale ed F : U → Tp (V) è detta campo tensoriale di ordine totale p (vedi Capitolo 12).
La nozione di campo appena introdotta non va ovviamente confusa con la omonima struttura algebrica. Un
campo è quindi in definitiva una funzione di punto a valori in un dato spazio tensoriale.
Assumendo che il lettore sia familiare con la regola di derivazione delle funzioni composte ne consi-
dereremo, attraverso la seguente proposizione della quale si omette la dimostrazione, una forma che si presta
ad essere utilizzata nelle applicazioni che verranno sviluppate nei prossimi capitoli. Siano dunque E, G, F
spazi puntuali euclidei finito-dimensionali e C ⊂ G, D ⊂ E sottoinsiemi aperti di G ed E rispettivamente. Si
considerino le applicazioni
g : D → G, f : C → F, (14.58)
con
Im g ⊂ C. (14.59)
Proposizione 207 Sia g differenziabile in x ∈ D e sia f differenziabile in y = g (x) ∈ C. Allora la funzione
composta
h = f ◦ g, (14.60)
è differenziabile in x ed il suo gradiente è dato da
gradh (x) = gradf (y) ◦ gradg (x) , (14.61)
ovvero, più esplicitamente
[gradh (x)] (v) = [gradf (g (x))] ([gradg (x)] (v)) , ∀v ∈ E. (14.62)
148 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Chiudiamo la sezione enunciando la seguente proposizione, attraverso la quale si ricava una condizione
di esistenza della inversa locale di una applicazione sufficientemente regolare. Come vedremo, tale risultato
risulterà cruciale nello studio delle deformazioni dei corpi modellati come continui.

Proposizione 208 Sia f : U → E0 una applicazione di classe C k e si assuma che gradf (x0 ) , x0 ∈ U, sia
un isomorfismo. Allora esiste un intorno U0 di x0 tale che la restrizione di f ad U0 è un C k diffeomorfismo.
Si ha inoltre
gradf −1 (f (x0 )) = [gradf (x0 )]−1 . (14.63)

Si rimanda ai testi di analisi matematica per la dimostrazione della precedente proposizione.

14.4 Sistemi di coordinate e varietà affini.


Sia E uno spazio puntuale euclideo di dimensione n. Si definisce C k -carta in x ∈ E una coppia (U, zb) , dove
U ⊂ E è un aperto contenente x e
zb : U →IRn , (14.64)
è un C k diffeomorfismo. Data una carta (U, zb), risultano determinati n campi scalari

zb i : U →IR, i = 1, 2, ..., n, (14.65)

tali che ¡ ¢
zb (x) = zb 1 (x) , zb 2 (x) , ..., zb n (x) , ∀x ∈ U. (14.66)
Gli n campi scalari appena introdotti sono le funzioni coordinate della carta, e la applicazione zb è anche
detta sistema di coordinate su U.
Dati due aperti U1 ⊂ E ed U2 ⊂ E tali che U1 ∩ U2 6= ∅, e due carte (U1 , zb) , (U2 , yb) è determinata la
applicazione cambiamento di coordinate

yb ◦ zb −1 : zb (U1 ∩ U2 ) → yb (U1 ∩ U2 ) , (14.67)

e la sua inversa
zb ◦ yb −1 : yb (U1 ∩ U2 ) → zb (U1 ∩ U2 ) . (14.68)
Essendo ¡ ¢
yb (x) = yb 1 (x) , ..., yb n (x) , (14.69)
è lecito scrivere il cambiamento di coordinate nella forma
¡ 1 ¢ ¡ ¢
yb (x) , ..., yb n (x) = yb ◦ zb −1 zb 1 (x) , ..., zb n (x) , (14.70)

ed analogamente per la sua inversa


¡ 1 ¢ ¡ ¢
zb (x) , ..., zb n (x) = zb ◦ yb −1 yb 1 (x) , ..., yb n (x) . (14.71)

ovvero, definendo i valori delle funzioni yb ◦ zb −1 e zb ◦ yb −1 in x

y i := yb i (x) , z i := zb i (x) , (14.72)

ed indicando impropriamente con lo stesso simbolo le funzioni stesse, introduciamo la notazione semplificata
¡ ¢ ¡ ¢
y i = y i z j , z i = z i y j , i, j = 1, 2, ..., n. (14.73)
¡ ¢ ¡ ¢
Le due n−ple y 1 , ..., y n e z 1 , ..., z n sono le coordinate del punto x ∈ U1 ∩ U2 , e ciascuna di esse è un
campo scalare definito nell’aperto U1 ∩ U2 . Poiché zb è un diffeomorfismo, l’equazione (14.66) riscritta nella
forma ¡ ¢
zb (x) = z 1 , ..., z n , (14.74)
può essere invertita ¡ ¢
e z 1 , ..., z n ,
x=x (14.75)
avendo introdotto il diffeomorfismo inverso
e : zb (U) → U.
x (14.76)
14.4. SISTEMI DI COORDINATE E VARIETÀ AFFINI. 149

Sia I un insieme. Un C k −atlante in E è una famiglia, non necessariamente numerabile, di C k −carte


{(Uα , zbα ) , α ∈ I} tale che la famiglia di aperti {Uα , α ∈ I} sia un ricoprimento per E, ovvero tale che risulti

E = ∪ Uα . (14.77)
α∈I

Diremo C k -varietà affine euclidea uno spazio puntuale euclideo dotato di un C k -atlante.
Una curva C ∞ in E è una applicazione di classe C ∞ :

γ : (a, b) → E, (14.78)

dove (a, b) è un aperto di IR. Sia x0 ∈ E; una curva C ∞ passa per il punto x0 se

∃c ∈ (a, b) : γ (c) = x0 . (14.79)

Assegnata una carta (U, zb) e dato un punto x0 ∈ U, la j−esima curva coordinata passante per il punto x0
è la curva γ j definita da
³ ´
e z01 , ..., z0j−1 , z0j + t, z0j+1 , ..., z0n ,
γ j (t) = x (14.80)

per ogni t tale che ³ ´


z01 , ..., z0j−1 , z0j + t, z0j+1 , ..., z0n ∈ zb (U) . (14.81)

Nelle precedenti espressioni si è introdotto z0i = zb i (x0 ) . Il sottoinsieme di U definito da

z j = zb j (x) = cost, (14.82)

è detto j−esima superficie coordinata della carta.

14.4.1 Alcuni sistemi di coordinate nelle varietà affini euclidee.


Introdurremo ora alcuni sistemi di coordinate nelle varietà
¡ euclidee¢ che risultano di interesse nelle applicazioni.
Si consideri una varietà affine euclidea e sia B = b1 , ..., bn una base dello spazio delle traslazioni V.
Definiamo gli n campi vettoriali costanti

bj : x ∈ E 7→bj (x) = bj ∈ V, j = 1, ..., n, (14.83)

avendo indicato con lo stesso simbolo la funzione ed il valore da essa assunto in x. Sia poi o un dato punto di
E; si definisce sistema di coordinate cartesiane in E la n-pla di campi scalari zb 1 , ..., zb n tali che

z j = zb j (x) = (x − o) · bj , x ∈ E. (14.84)

Se la base B è ortonormale, il corrispettivo sistema di coordinate è detto cartesiano rettangolare. Il punto


o è detto origine del sistema di coordinate, ed il campo vettoriale r : E →V definito da

r (x) = x − o, ∀x ∈ E, (14.85)

è detto campo vettore posizione rispetto all’origine o. Il suo valore è appunto il vettore posizione del
punto x rispetto all’origine o. Sia poi B0 = (b1 , ..., bn ) la base di V reciproca della B (cfr. Capitolo 12 per la
definizione di base reciproca); la (14.84) implica la seguente catena di uguaglianze
¡ ¢
x−o=x e z 1 , ..., z n − o = r (x) = zb j (x) bj , (14.86)

dove il prodotto tra il campo scalare zbj ed il campo vettoriale costante bj è definito puntualmente, ovvero
£ j ¤
zb bj (x) := zb j (x) bj (x) , (14.87)

per ogni x appartenente all’intersezione dei domini dei campi zbj e bj . La (14.86) permette di esprimere la
(14.84) nella forma equivalente
zb j = r · bj , (14.88)
dove il prodotto scalare tra i due campi vettoriali r e bj è definito puntualmente
³ ´nello stesso senso specificato
1 n
dalla (14.87). Come esempio illustrativo si consideri una base B = b , ..., b di V ottenuta dalla base B
come
i
b = Qij bj , (14.89)
150 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

dove Qij è una matrice rettangolare a rango massimo, e sia o un dato punto di E. La (14.84) porge
j j
z j = (x − o) · b = [(x − o) + (o − o)] · b
j j
= (x − o) · b + (o − o) · b
j
= Qjk (x − o) · bk + (o − o) · b = Qjk z k + cj , (14.90)
j j
avendo utilizzato la linearità del prodotto scalare, la (14.89) ed avendo £ i ¤ introdotto le n costanti c = (o − o)·b .
Se le basi B e B sono entrambe ortonormali allora la matrice Qj è ortogonale. Si noti che i sistemi di
coordinate coinvolti hanno come dominio l’intero spazio E. Poiché ogni spazio vettoriale dotato di prodotto
scalare possiede sempre una base ortonormale, è comunque possibile associare ad ogni punto di E considerato
come origine un sistema di coordinate cartesiane rettangolari. ¡ ¢
Dato un sistema di coordinate cartesiane rettangolari, z 1 , ..., z n , è possibile caratterizzare un sistema di
coordinate generali o curvilinee considerando una carta (U, yb) ed il cambiamento di coordinate da zb ad yb,
tenendo presente che in questo caso l’intersezione dei domini dei diffeomorfismi zb ed yb è dato da U ∩ E = U,
dove U può essere un sottoinsieme proprio di E. Si ha quindi
¡ 1 n
¢ −1
¡ 1 n
¢
¡z 1 , ..., z n ¢ = zb ◦ yb −1 ¡y 1, ..., y n ¢ , (14.91)
y , ..., y = yb ◦ zb z , ..., z ,
dove zb ◦ yb −1 : yb (U) → zb (U) e yb ◦ zb −1 : zb (U) → yb (U) sono diffeomorfismi. Si consideri ad esempio un sistema
di coordinate cilindriche in uno spazio puntuale euclideo tridimensionale; in questo caso si ha n = 3 e la
precedente equazione (14.91)1 assume la forma
¡ 1 2 3¢ ¡ 1 ¢
z , z , z = y cos y 2 , y 1 sin y 2 , y 3 . (14.92)
Affinché la precedente sia l’espressione di un cambiamento di coordinate, è necessario che le trasformazioni
zb ◦ yb −1 e yb ◦ zb −1 siano C ∞ . La restrizione della funzione zb ◦ yb −1 all’insieme
V := (0, ∞) × [0, 2π) × (−∞, ∞) , (14.93)
è C ∞ ed è biettiva. Inoltre la trasformazione inversa
µq ¶
¡ 1 2 3¢ 2 2 z2
y ,y ,y = (z 1 ) + (z 2 ) , tan−1 1 , z 3 , (14.94)
z
risulta di classe C ∞ in tutto IR3 . Di conseguenza se abbiamo scelto come insieme di definizione del sistema
di coordinate yb un generico sottoinsieme U di IR3 si ha che
yb (U) ⊂ V. (14.95)
Per il sistema di coordinate cilindriche, le linee coordinate y 1 sono ¡ rette ¢ passanti per l’origine, le linee co-
ordinate y 2 sono circonferenze giacenti su piani paralleli al piano z 1 , z 2 e le linee coordinate y 3 sono rette
coincidenti con z 3 . Le superfici y 1 = cost sono cilindri circolari aventi i generatori paralleli all’asse z 3 ; le
2 3 3
¡superfici
1 2
¢ y = cost sono piani contenenti l’asse z mentre le superfici y = cost sono piani paralleli al piano
z ,z .
Un sistema di coordinate sferiche in uno spazio puntuale euclideo tridimensionale è invece caratterizzato
dal cambiamento di coordinate
¡ 1 2 3¢ ¡ 1 ¢
z , z , z = y sin y 2 cos y 3 , y 1 sin y 2 sin y 3 , y 1 cos y 2 , (14.96)
dove y 2 è detta colatitudine ed y 3 è detta longitudine. La restrizione della funzione zb ◦ yb −1 all’insieme
V := (0, ∞) × [0, π) × [0, 2π) , (14.97)
è di classe C ∞ e biettiva, e la trasformazione inversa
⎛ ⎞
¡ 1 2 3¢ q 2 3
2 2 2 z z
y , y , y = ⎝ (z 1 ) + (z 2 ) + (z 3 ) , tan−1 1 , cos−1 q ⎠, (14.98)
z 1 2 2 2 3 2
(z ) + (z ) + (z )

è di classe C ∞ in tutto IR3 . Per questo sistema di coordinate le linee y 1 sono rette passanti per l’origine, le
linee coordinate y 2 sono circonferenze di raggio y 1 giacenti¡su un ¢piano contenente l’asse z 3 dette meridiani e
le linee coordinate y 3 sono circonferenze parallele al piano z 1 , z 2 dette paralleli. ¡Le superfici
¢ y 1 = cost sono
1 2 1 2
superfici sferiche di raggio y ; le superfici y = cost sono piani paralleli al piano z , z mentre le superfici
y 3 = cost sono piani contenenti l’asse z 3 .
14.4. SISTEMI DI COORDINATE E VARIETÀ AFFINI. 151

14.4.2 Basi naturali e basi anolonome.


Si considerino le leggi di trasformazione (14.73). Sostituendo la seconda nella prima e differenziando si ottiene:
∙ i ¸∙ ¸
∂ £ i ¡ j ¡ k ¢¢¤ ∂y ¡ 1 ¢ ∂z j ¡ 1 ¢
y z y = z , ..., z n
y , ..., y n
= δ ik , (14.99)
∂z j ∂z j ∂y k

ed analogamente, sostituendo la prima nella seconda:


∙ i ¸∙ ¸
∂z ¡ 1 ¢ ∂y j ¡ 1 ¢
y , ..., y n
z , ..., z n
= δ ik . (14.100)
∂y j ∂z k

Le precedenti stabiliscono che le trasformazioni (14.73) sono non singolari in quanto i determinanti delle
matrici Jacobiane ad esse associate sono non nulli:
∙ i ¸ µ ∙ j ¸¶
∂y ¡ 1 n
¢ ∂z ¡ 1 n
¢ −1
det z , ..., z = det y , ..., y 6= 0. (14.101)
∂z j ∂y k

Si consideri ora una carta (U, zb) in E, e sia

gi := gradb
z i, (14.102)

il gradiente della i−esima funzione coordinata della introdotta carta. Le funzioni gi , i = 1, 2, ..., n, sono
evidentemente campi vettoriali di classe C ∞ in U. Ricordando la definizione (14.82), la (14.102) implica che,
dato x ∈ U, gi (x) è un vettore dello spazio delle traslazioni V normale alla i−esima superficie coordinata
della carta (U, zb) .
Partendo dalla (14.75) definiamo n campi vettoriali g1 , g2 , ..., gn in U come:
¡ ¢ ¡ ¢
xe z 1 , ..., z i + t, ..., z n − x
e z 1 , ..., z n
gi (x) := lim
t→0 τ
∂ex ¡ 1 ¢
= i z , ..., z n , ∀x ∈ U, i = 1, 2, ..., n. (14.103)
∂z
Dalla definizione (14.80) si ha che gi (x) è un vettore di V tangente alla i−esima curva coordinata della carta
(U, zb) . Ricordando che ¡ ¡ 1 ¢¢
z i = zb i x
e z , ..., z n , (14.104)
dalla regola di derivazione della funzione composta, insieme alle (14.102), (14.103) si ottiene

∂z i ∂e
x
j
= δ ij = gradb
z i j = gi · gi . (14.105)
∂z ∂z
Proposizione 209 L’insieme {g1 (x) , g2 (x) , ..., gn (x)} è formato da vettori linearmente indipendenti in V,
per ogni x ∈ U.

Dimostrazione Sia x ∈ U, e sia

α1 g1 (x) + α2 g2 (x) + ... + αn gn (x) = 0, (14.106)

la combinazione lineare dei vettori g1 (x) , g2 (x) , ..., gn (x) secondo i coefficienti reali α1 , ..., αn . Considerando
il prodotto scalare con il vettore gi (x) ed utilizzando la (14.105) si ottiene:

αi = 0, i = 1, 2, ..., n, (14.107)

onde l’asserto.
Essendo dim V = n, dalla precedente proposizione discende immediatamente che

G = (g1 (x) , g2 (x) , ..., gn (x)) , (14.108)

è una base di V e che ¡ ¢


G 0 = g1 (x) , g2 (x) , ..., gn (x) , (14.109)
è la sua base reciproca in V (cfr. Capitolo 12). Le due basi appena introdotte sono dette basi naturali di zb in
x. Qualunque altra base non ottenibile come nelle (14.102), (14.103) è detta anolonoma o non integrabile.
152 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

La base fisica relativa al sistema di coordinate zb in x è una particolare base anolonoma. Essa è costituita
dai versori
ghii (x) , i = 1, 2, ..., n, (14.110)
diretti come i vettori della base naturale G relativa ad un sistema di coordinate ortogonali. Data dunque una
carta (U, zb) , con zb ortogonale, si ha
−1
ghii (x) = kgi (x)k gi (x) , ∀x ∈ U. (14.111)

Poiché G è in questo caso ortogonale, segue che la base fisica è ortonormale:

ghii · ghji = δ ij . (14.112)

Dalla precedente discende la seguente espressione dei vettori della base fisica nei termini della base G 0 :
° °−1
ghii (x) = °gi (x)° gi (x) , ∀x ∈ U. (14.113)

Si noti che a prescindere dalle dimensioni fisiche delle coordinate che generano le basi naturali, i vettori della
relativa base fisica sono adimensionali. Il vantaggio di rappresentare una grandezza tensoriale nella base fisica
risiede dunque nel fatto che tutte le componenti sono dimensionalmente omogenee.
Vogliamo ora determinare la legge di trasformazione per il cambiamento di base naturale associato ad un
cambiamento di coordinate. Siano a tal fine (U1 , zb) e (U2 , yb) due carte tali che E ⊃ U1 ∩ U2 6= ∅, e sia

hi = gradb
y i. (14.114)

Dalle (14.73), (14.102) si ha

hi (x) = gradb y i (x)


∙ i ¸
∂y ¡ 1 n
¢
= z , ..., z gradbz j (x)
∂z j
∙ i ¸
∂y ¡ 1 n
¢ j
= z , ..., z g (x) , ∀x ∈ U1 ∩ U2 , (14.115)
∂z j

ed analogamente ∙ ¸
∂z i ¡ 1 n
¢
hi (x) = y , ..., y gj (x) , ∀x ∈ U1 ∩ U2 , (14.116)
∂y j
le quali forniscono le ricercate leggi di trasformazione.
Data una carta (U, zb) , sono individuati i 2n2 campi scalari

gij : U →IR, g ij : U →IR, i, j = 1, 2, ..., n, (14.117)

definiti come
gij (x) := gi (x) · gj (x) = gji (x) ,
∀x ∈ U. (14.118)
g ij (x) := gi (x) · gj (x) = g ji (x) ,
Riprendendo le definizioni date nella sezione 12.1 si ha che i campi scalari appena introdotti sono rispettiva-
mente le componenti covarianti e controvarianti del campo tensoriale

1I : E → T2 (V) , (14.119)

di ordine totale 2, il cui valore nel punto x ∈ U è il tensore identico o tensore metrico:

1I=gij gi ⊗ gj = gj ⊗ gj = gj ⊗ gj = g ij gi ⊗ gj . (14.120)

La precedente mostra che in generale le componenti di un campo tensoriale costante non sono in generale
campi scalari costanti. Ciò è risulta vero solo in coordinate cartesiane. Si ha inoltre che dalla (14.100) risulta
£ ¤−1
gij (x) = g ij (x) , ∀x ∈ U, (14.121)

e
gi = g ij gj , gi = gij gj . (14.122)
14.5. LA DERIVATA COVARIANTE. 153

Nel punto x ∈ U, definiamo l’elemento di arco ds come

ds2 = dx · dx, (14.123)

avendo introdotto il vettore dello spazio delle traslazioni


∙ ¸
∂ex
dx = (b
z (x)) dz j , (14.124)
∂z j

(cfr. la (14.75)). Utilizzando le (14.103), (14.118)1 , la precedente può essere riscritta come

ds2 = gij (x) dz i dz j . (14.125)

Date poi due carte (U1 , zb) , (U2 , yb) con U1 ∩ U2 6= ∅, nel punto x ∈ U1 ∩ U2 si ha:

hi (x) · hj (x) = hij (x)


∙ k ¸∙ ¸
∂z ¡ 1 n
¢ ∂z m ¡ 1 n
¢
= y , ..., y y , ..., y gkm (x) . (14.126)
∂y i ∂y j

La precedente espressione fornisce un utile strumento di calcolo per gkm (x) qualora il sistema di coordinate
zb sia cartesiano. Infatti, considerando ad esempio la trasformazione (14.91)1 si ha
∙ k ¸∙ ¸
∂z ¡ 1 n
¢ ∂z k ¡ 1 n
¢
gij (x) = y , ..., y y , ..., y , (14.127)
∂y i ∂y j

essendo, per i sistemi di coordinate cartesiane

hij (x) = δ ij , ∀x ∈ U1 ∩ U2 . (14.128)

Così, per il sistema di coordinate cilindriche definito dalle trasformazioni (14.92) si ha


⎛ ⎞
1 0 0
¡ 1 ¢2
[gij ] = ⎝0 y 0⎠ ,
0 0 1 (14.129)

ds2 = (dy 1 )2 + (y 1 dy 2 )2 + (dy 3 )2 ,

mentre per le coordinate sferiche (14.96) si ha


⎛ ⎞
1 0 0
⎜ ¡ ¢2 ⎟
[gij ] = ⎝0 y 1 0 ⎠,
¡ 1 2
¢2 (14.130)
0 0 y sin y
ds2 = (dy 1 )2 + (y 1 dy 2 )2 + (y 1 sin y 2 dy 3 )2 ,

ed entrambi risultano evidentemente essere ortogonali.

14.5 La derivata covariante.


In questa sezione ci proponiamo di rappresentare il gradiente di un campo tensoriale nei termini delle sue
componenti nella base naturale associata ad una arbitraria carta. Nel contesto dell’analisi tensoriale, l’o-
peratore gradiente è anche noto come derivata covariante, per cui l’operazione che consiste nell’eseguire il
gradiente di un campo tensoriale è detta derivazione covariante dello stesso.
Sia
γ : (a, b) → E, (14.131)
una curva regolare passante per il punto x, ovvero

x = γ (c) , c ∈ (a, b) . (14.132)

Data una carta (U, zb) , consideriamo le coordinate della curva γ in tale carta:
¡ ¢
zb (γ (t)) = γ 1 (t) , γ 2 (t) , ..., γ n (t) , (14.133)
154 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

cosicché ¡ ¢
e γ 1 (t) , γ 2 (t) , ..., γ n (t) ,
γ (t) = x ∀t : γ (t) ∈ U. (14.134)
Differenziando rispetto a t si ottiene:
¯ ¯
x dγ j ¯¯
∂e dγ j ¯¯
γ̇|x = = gj (x) , (14.135)
∂z j dt ¯t=c dt ¯t=c

avendo utilizzato la (14.103). La precedente è la proiezione della curva γ nella base naturale {gj } associata
alla carta (U, zb) ; essa afferma che le componenti di γ̇ in tale base sono date dalle derivate delle coordinate di
γ in zb. In effetti, si può notare che la (14.103) è un caso particolare della (14.135) quando γ coincide con una
delle curve coordinate.
Si consideri ora una applicazione regolare

f : U →IR, (14.136)

dove U è un aperto dello spazio puntuale affine E. Il suo gradiente nel punto x ∈ U è dato dalla (cfr. la
(14.57)): ¯
d ¯
[gradf (x)] · v = f (x + τ v)¯¯ , ∀v ∈V, (14.137)
dτ τ =0

avendo indicato con V lo spazio delle traslazioni di E. Scelta una carta (U, zb) , diremo rappresentazione
coordinata di f in tale carta la funzione

e : IRn → IR,
f ◦x (14.138)

tale che f possa rappresentarsi come (cfr. la (14.75)):


¡ ¢ ¡ ¢
f (x) = f ◦ xe z 1 , ..., z n ≡ f z 1 , ..., z n . (14.139)

Essendo ¡ ¢
f (x + τ v) = f z 1 + τ v 1 , ..., z n + τ v n , (14.140)
il secondo membro della (14.137) può riscriversi come
¯
d ¯ ∂f (x) j
f (x + τ v)¯¯ = v , (14.141)
dτ τ =0 ∂z j

ovvero, dalla arbitrarietà di v:


∂f j
gradf = g , (14.142)
∂z j
© jª
dove g è la base naturale associata alla carta (U, zb). Si noti che la precedente equazione è una generaliz-
zazione della (14.102), riducendosi a questa ultima nel caso in cui f coincida con una delle funzioni coordinate
zbj .
Avendo come bagaglio la definizione della tangente ad una curva e del gradiente di una funzione a valori re-
ali, passiamo ora alla rappresentazione del gradiente di un campo tensoriale di ordine qualunque. Denoteremo
con T∞ p (U) l’insieme dei campi tensoriali C

di ordine totale p definiti nell’aperto U ⊂ E :

T∞
p (U) := {T : x ∈ U 7→T (x) ∈ Tp (V) , ∀x ∈ U} . (14.143)

La somma dei due elementi di T∞


p (U)

T :U → Tp (V) , U :U → Tp (V) , (14.144)

è il campo tensoriale C ∞ di ordine totale p

T + U :U → Tp (V) , (14.145)

definito come
[T + U] (x) = T (x) + U (x) , ∀x ∈ U. (14.146)

Considerata poi la funzione di classe C
f : U →IR, (14.147)
14.5. LA DERIVATA COVARIANTE. 155

è individuato il prodotto f T ∈T∞


p (U):

[f T] (x) = f (x) T (x) , ∀x ∈ U. (14.148)

Le componenti covarianti del campo tensoriale T :U → Tp (V) rispetto alla carta (U1 , zb) sono gli np campi
scalari
Ti1 ...ip : U1 ∩ U →IR, (14.149)
definiti come ¡ ¢
Ti1 ...ip (x) = [T (x)] gi1 (x) , ..., gip (x) , ∀x ∈ U1 ∩ U, (14.150)
per cui il campo tensoriale T ammette la rappresentazione

T =Ti1 ...ip gi1 ⊗ · · · ⊗ gip , ∀x ∈ U1 ∩ U, i1 , .., ip = 1, 2, ..., n, (14.151)

nella base prodotto associata alla base naturale di zb.


Sia T ∈T∞ b) una carta. Il gradiente di T nel punto x è
p (U) un campo tensoriale, x un punto di U ed (U, z
l’applicazione lineare
gradT (x) ∈ Hom (V, Tp (V)) , (14.152)
data da (cfr. la (14.57)): ¯
d ¯
[gradT (x)] (v) = T (x + τ v)¯¯ , ∀v ∈ V. (14.153)
dτ τ =0

Considerando quindi la rappresentazione coordinata di T nella carta (U, zb) , ovvero la funzione

x : IRn → Tp (V) ,
T◦e (14.154)

si ha ¯ ∙ ¸
d ¯ ∂ ¡ 1 ¢ i ∂T (x) i
¯
T (x + τ v)¯ = T◦e
x z , ..., z n
v = v, ∀v ∈ V, (14.155)
dτ τ =0 ∂z i ∂z i
ovvero
∂T (x) i
[gradT (x)] (v) = v, ∀v ∈ V. (14.156)
∂z i
Data l’arbitrarietà di v, è possibile scegliere v = gi (x) , da cui

∂T (x)
[gradT (x)] (gi (x)) = . (14.157)
∂z i
Osservando infine che, in virtù della proposizione 145, gli spazi Tp+1 (V) ed Hom (V, Tp (V)) (V può infatti
riguardarsi come T1 (V)), il gradiente di T nel punto x è equivalentemente il tensore di Tp+1 (V) dato da

∂T (x)
gradT (x) = ⊗ gi (x) , (14.158)
∂z i
dalla quale si evince che gradT ∈T∞ p+1 (U), ovvero che esso è un campo tensoriale di ordine totale p + 1
definito in U.
La rappresentazione di gradT (x) ∈ Tp+1 (V) nella base prodotto di Tp+1 (V)
© ª
gi1 (x) ⊗ · · · ⊗ gip (x) ⊗ gip+1 (x) , i1 , ..., ip+1 = 1, 2, ..., n, (14.159)

generata dalla base naturale relativa alla carta (U, zb) è

gradT (x) = [gradT (x)]i1 ...ip ip+1 gi1 (x) ⊗ · · · ⊗ gip (x) ⊗ gip+1 (x) , (14.160)

la quale, confrontata con la (14.158) fornisce la seguente espressione per le n derivate parziali di T (x) lungo
le curve coordinate di zb :
∂T (x) i ...i
= [gradT (x)] 1 p ip+1 gi1 (x) ⊗ · · · ⊗ gip (x) , ∀ip+1 = 1, 2, ..., n. (14.161)
∂z ip+1
Nelle applicazioni risulta sovente utile, al fine di compiere alcuni calcoli, rappresentare le componenti di
gradT (x) in una data carta nei termini delle componenti di T (x) nella stessa carta. Scelta dunque una carta
(U, zb) si ha
T (x) =T i1 ...ip (x) gi1 (x) ⊗ · · · ⊗ gip (x) , (14.162)
156 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

ed il primo membro della (14.161) può essere riscritto come

∂T (x) ∂T i1 ...ip (x)


i
= gi (x) ⊗ · · · ⊗ gip (x)
∂z p+1 ∂z ip+1 ∙ 1 ¸
i1 ...ip ∂gi1 (x) ∂gip (x)
+T (x) ⊗ · · · ⊗ gip (x) + · · · + gi1 (x) ⊗ · · · ⊗ . (14.163)
∂z ip+1 ∂z ip+1

Dalla (14.161) con T =gi si ottiene

∂gi (x) ∂gi (x) k


= [gradgi (x)]k j gk (x) =⇒ [gradgi (x)]k j = · g (x) . (14.164)
∂z j ∂z j

Introducendo i simboli di Christoffel associati alla carta (U, zb) con la definizione

∂gi k
Γij k := ·g , (14.165)
∂z j
le derivate parziali dei vettori della base naturale covariante possono esprimersi come

∂gi
= Γij k gk . (14.166)
∂z j

Utilizzando la (14.103) si ha
∂2xe
Γij k = · gk = Γji k , (14.167)
∂z ∂z j
i

la quale afferma la simmetria dei simboli di Christoffel rispetto agli indici i e j. Al fine di ottenere una formula
che risulti maneggevole per il calcolo di Γijk , si consideri la derivata parziale delle componenti covarianti del
tensore metrico:
∂gij ∂ ∂gi ∂gj
= k (gi · gj ) = k · gj + k · gi
∂z k ∂z ∂z ∂z
= Γik h gh · gj + Γjk h gh · gi
= Γik h ghj + Γjk h ghi , (14.168)

dalla quale si ottiene


∂gij
= Γik h ghj + Γjk h ghi ,
∂z k
∂gik
= Γij h ghk + Γkj h ghi , (14.169)
∂z j
∂gkj
= Γki h ghj + Γji h ghk .
∂z i
Sottraendo infine la (14.169)1 alla somma delle (14.169)2 , (14.169)3 e tenendo conto della simmetria (14.167)
si ha:
∂gik ∂gjk ∂gij
+ − = 2 Γij h ghk , (14.170)
∂z j ∂z i ∂z k
ovvero µ ¶
h 1 hk ∂gik ∂gjk ∂gij
Γij = g + − , (14.171)
2 ∂z j ∂z i ∂z k
attraverso la quale si possono calcolare i simboli di Christoffel relativi ad un dato sistema di coordinate a
partire dalle componenti del tensore metrico associato alle stesse coordinate. Per le coordinate cilindriche
(14.92), utilizzando la (14.171) si trova che gli unici due simboli di Christoffel non nulli sono
µ ¶ ¡ ¢2
1 1 11 ∂g22 1 ∂ y1
Γ22 = g − 1 =− = −y 1 ,
2 ∂y 2 ∂y 1
µ ¶ (14.172)
2 1 ∂g22 1
Γ12 = Γ21 2 = g 22 1
= 1,
2 ∂y y
14.6. DERIVATA COVARIANTE LUNGO CURVE. 157

mentre per le coordinate sferiche (14.96) si ha

1
Γ12 1 = Γ21 1 = Γ13 1 = Γ31 1 = ,
y1
Γ22 1 = −y 1 ,
¡ ¢2
Γ33 1 = −y 1 sin y 2 , (14.173)
Γ33 2 = − cos y 2 sin y 2 ,
1
Γ23 3 = Γ32 3 = ,
tan y 2

ed i rimanenti nulli. Si lascia al lettore la verifica del fatto che i simboli di Christoffel relativi ad un sistema
di coordinate cartesiane sono tutti nulli3 .
Ritorniamo ora alla equazione (14.163). Con l’ausilio della (14.166), è possibile esprimere la derivata
dell’iq −esimo (q = 1, 2, ..., p) vettore della base naturale per cui, sostituendo nella (14.163) la stessa diviene
∙ i1 ...ip ¸
∂T (x) ∂T (x) h i2 ...ip i1 i1 ...ip−1 h ip
= + T (x) Γh ip+1 (x) + · · · + T (x) Γh ip+1 (x) gi1 (x) ⊗ · · · ⊗ gip (x) ,
∂z ip+1 ∂z ip+1
(14.174)
ovvero, confrontando con la (14.161) ed introducendo la notazione

[gradT]i1 ...ip ip+1 = T i1 ...ip kip+1 , (14.175)

per la derivata covariante si ha

∂T i1 ...ip
T i1 ...ip kip+1 = + T h i2 ...ip Γh ip+1 i1 + · · · + T i1 ...ip−1 h Γh ip+1 ip . (14.176)
∂z ip+1
La precedente è l’espressione delle componenti del gradiente di T nei termini delle sue componenti controva-
rianti. Se il sistema di coordinate è cartesiano, la derivata covariante si riduce alla ordinaria derivata parziale,
essendo tutti nulli i simboli di Christoffel.
Si consideri ancora un campo tensoriale T di ordine totale p ≥ 1. La sua divergenza è il campo tensoriale
di ordine totale p − 1 definito come
divT := Cp p+1 (gradT) , (14.177)
dove C denota l’operazione di contrazione semplice come definita in (12.78) (si veda la sezione 11.1 per maggiori
dettagli). La rappresentazione per componenti nella base prodotto di Tp−1 è

divT = T i1 ...ip−1 h kh gi1 ⊗ · · · ⊗ gip−1 , (14.178)

la quale, nel caso in cui p = 1 si riduce alla contrazione completa:

divv = v h kh = g hk vh kk ∈ IR. (14.179)


£ ¤
Introducendo g = det g hk , la precedente formula risulta essere equivalente alla (per una dimostrazione si
consulti [7]) ¡√ i ¢
1 ∂ gv
divv = √ , (14.180)
g ∂z i
la quale è particolarmente utile per il calcolo della divergenza di un campo vettoriale in quanto è possibile
prescindere dai simboli di Christoffel, che evidentemente non compaiono in essa esplicitamente.

14.6 Derivata covariante lungo curve.


Considereremo in questa sezione la derivazione covariante di campi tensoriali definiti su curve di E piuttosto
che nei suoi sottoinsiemi aperti.
Sia
γ : IR 3 (a, b) → E, (14.181)
qkr
3 Sovente i simboli di Christoffel Γijk sono denotati come .
ij
158 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

una curva regolare. Il vettore tangente γ̇, esaminato nella sezione precedente, è un esempio di campo vettoriale
definito su γ. In generale, dato un campo tensoriale di ordine totale p

T : (a, b) → Tp (V) , (14.182)

il suo valore T (t) in t ∈ (a, b) è un tensore di Tp (V) nel punto γ (t) . Possiamo quindi definire il suo gradiente
o derivata covariante lungo γ come

dT (t) T (t + ∆t) − T (t)


:= lim , ∀t ∈ (a, b) . (14.183)
dt ∆t→0 ∆t
Quando il limite esiste, si ottiene un campo tensoriale di ordine totale p definito su γ. In questo modo risulta
evidente la possibilità di definire le derivate covarianti di qualunque ordine purché T sia sufficientemente
regolare su γ.
Al fine di ottenere la rappresentazione per componenti della derivata covariante (14.183), consideriamo un
sistema di coordinate zb che ricopra il punto γ (t) . La rappresentazione del tensore T (t) nella base prodotto
generata dalla base naturale covariante associata all’introdotto sistema di coordinate è

T (t) = T i1 ...ip (t) gi1 (γ (t)) ⊗ · · · ⊗ gip (γ (t)) . (14.184)

Differenziando la precedente rispetto a t si ottiene

dT (t) dT i1 ...ip (t)


= gi (γ (t)) ⊗ · · · ⊗ gip (γ (t)) (14.185)
dt dt ∙ 1 ¸
dgi1 (γ (t)) dgip (γ (t))
+ T i1 ...ip (t) ⊗ · · · ⊗ gip (γ (t)) + · · · + gi1 (γ (t)) ⊗ · · · ⊗ .
dt dt

Applicando successivamente la regola di derivazione della funzione composta ed utilizzando le (14.133),


(14.135) si ha
dgj (γ (t)) ∂gj (γ (t)) dγ k (t)
= , (14.186)
dt ∂z k dt
e rappresentando la derivata dei vettori della base naturale come in (14.166) si giunge alla

dgj (γ (t)) dγ k (t)


= Γjk i gi (γ (t)) , (14.187)
dt dt
la quale, sostituita nella (14.185) fornisce
∙ i1 ...ip
dT (t) dT (t)
=
dt dt
¸
¡ j i2 ...ip ¢ dγ k (t)
+ T (t) Γjk i1 (γ (t)) + · · · + T i2 ...ip−1 j (t) Γjk ip (γ (t))
dt
gi1 (γ (t)) ⊗ · · · ⊗ gip (γ (t)) . (14.188)

Come esempio illustrativo, si consideri il gradiente di un campo vettoriale v lungo una curva γ :
∙ i ¸
dv (t) dv (t) dγ k (t)
= + v j (t) Γjk i gi , (14.189)
dt dt dt

con le componenti date da


µ ¶i
dv (t) dv i (t) dγ k (t)
= + v j (t) Γjk i , i = 1, 2, ..., n. (14.190)
dt dt dt

Si tenga presente la differenza che intercorre tra la derivata covariante delle componenti:

dT i1 ...ip (t)
, (14.191)
dt
e le componenti della derivata covariante:
µ ¶i1 ...ip
dT (t)
. (14.192)
dt
14.7. LE FORMULE DI FRENET. 159

Si consideri ora un campo tensoriale T : E ⊃U→ Tp (V) , e sia

T (t) := T (γ (t)) , t ∈ (a, b) , (14.193)

la sua restrizione alla curva γ : (a, b) → U. Eseguendo il gradiente lungo la curva γ attraverso la (14.188) e
tenendo conto della (14.174) si ottiene

dT (γ (t))
= [gradT (γ (t))] (γ̇ (t)) , (14.194)
dt
essendo il gradiente un elemento di Hom (V, Tp (V)) . Alla precedente, utilizzando la (14.158) è possibile dare
la forma equivalente ma più esplicita:

dT (γ (t)) ∂T (γ (t)) dγ k (t)


= . (14.195)
dt ∂z k dt

14.7 Le formule di Frenet.


Si consideri uno spazio puntuale euclideo tridimensionale E e sia

v : x ∈ E → v (x) ∈ V, (14.196)

un campo vettoriale non nullo. Indicando con


v
t= , (14.197)
kvk

il suo versore, diremo curva integrale di t una applicazione

γ : IR 3 s 7→ γ (s) ∈ E, (14.198)

tale che

= t (γ (s)) , (14.199)
ds
dove s, detto ascissa curvilinea, è un parametro reale tale che
° °
° dγ °
° ° = 1. (14.200)
° ds °

In base alla definizione, il vettore t è tangente alla curva γ, da cui il nome di tangente di γ.
Escludendo il caso in cui γ sia una retta, si consideri la derivata covariante di t lungo γ (cfr. la sezione
precedente): ° °
dt ° dt °
= κn, κ := ° °
° ds ° . (14.201)
ds
Il modulo κ di tale derivata è detto curvatura della curva γ, ed il versore n è la sua normale principale.
È ovviamente κ > 0. Il reciproco di κ
1
ρ= , (14.202)
κ
è il raggio di curvatura della curva γ. Differenziando il prodotto scalare (t · t) e tenendo conto del fatto che t
stesso è un versore si ha
d dt
0= (t · t) = 2t · = 2κt · n = 0 =⇒ t · n = 0, (14.203)
ds ds
la quale afferma che il gradiente del versore n è ortogonale a t rispetto al prodotto scalare definito in V. Poiché
t ed n sono entrambi versori, il loro prodotto vettore

b = t ∧ n, (14.204)

è un vettore di modulo unitario, detto binormale di γ. La terna ortonormale (t (s) , n (s) , b (s)) formata da
tangente, normale e binormale della curva γ nel punto γ (s) prende il nome di triedro principale associato a
γ in γ (s) . La terna (t, n, b) può anche riguardarsi come un campo di basi ortonormali anolonome nel dominio
del campo v.
160 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Per completare la nostra analisi, consideriamo le derivate covarianti di n e b lungo γ. Differenziando (b · b)


si ottiene
db
b· = 0, (14.205)
ds
ed analogamente, essendo b · t = 0 ed n · b = 0 si ha
db dt
t· = −b · = −κn · b = 0, (14.206)
ds ds
le quali, combinate, affermano che db/ds è parallelo ad n. Definita la torsione di γ
° °
° db °
τ := − ° °
° ds ° , (14.207)

si ha
db
= −τ n. (14.208)
ds
Considerando infine che, dalla (14.204) e dalle proprietà cicliche del prodotto vettore, la normale può esprimersi
come
n = b ∧ t, (14.209)
discende che la derivata covariante di n lungo γ è data da
dn db dt
= ∧t+b∧ = −τ n ∧ t + b ∧ κn = τ b − κt. (14.210)
ds ds ds
I risultati (14.201), (14.208) e (14.210), qui di seguito riassunti:
dt
= κn,
ds
dn
= τ b − κt, (14.211)
ds
db
= −τ n,
ds

sono noti come formule di Frenet.

14.8 Elementi di geometria gaussiana.


Questa sezione sarà dedicata alla teoria delle superfici bidimensionali immerse in una varietà euclidea tridi-
mensionale E. Tale teoria, nota come geometria gaussiana, è un caso particolare di quella delle ipersuperfici
(n − 1)-dimensionali immerse in una varietà euclidea n-dimensionale.
Attenendoci alla tradizione, quando non diversamente specificato, denoteremo con lettere dell’alfabeto
latino gli indici il cui campo di variabilità sia esteso da 1 a 3 (o comunque da 1 ad n), mentre saranno
utilizzate lettere greche per gli indici che variano da 1 a 2 (o da 1 ad n − 1).

14.8.1 Vettore normale, piano tangente e tensore metrico superficiale.


Sia E uno spazio puntuale euclideo tridimensionale e sia V il suo spazio delle traslazioni. Una superficie
bidimensionale immersa in E (che indicheremo da ora in poi semplicemente con il termine “superficie”,
omettendo l’aggettivo “bidimensionale”) è un insieme S di punti di E caratterizzato localmente dalla condizione

∀x ∈ S, ∃Nx aperto, ∃Σx ∈ C 1 (Nx ) : y ∈ S ∩ N x ⇐⇒Σx (y) = 0, (14.212)

dove Σx è una funzione regolare non nulla dotata di gradiente non nullo in S ∩ N x . La precedente caratterizza
localmente la superficie S nel senso che la funzione Σ, dato x, è definita nell’aperto Nx che in generale varia
con il punto. Diremo normale unitaria della superficie S il campo vettoriale

n : S ∩ N x →V, (14.213)

definito da
gradΣ
n := . (14.214)
kgradΣk
14.8. ELEMENTI DI GEOMETRIA GAUSSIANA. 161

La rappresentazione (14.212) non è unica: infatti essa è soddisfatta anche da −Σ con il campo delle normali
−n. Diremo che la superficie S è orientabile se il dominio della funzione Σ coincide con S, per cui la
superficie stessa può essere caratterizzata globalmente come

x ∈ S⇐⇒Σ (x) = 0. (14.215)

Nel caso in cui S sia orientabile, è possibile assegnare ad essa una orientazione scegliendo un campo delle
normali n il quale viene designato come normale positiva per S. Nel seguito ci riferiremo a superfici
orientate.
Siano
1 2
b
ξ : x 7→ ξ 1 , b
ξ : x 7→ ξ 2 , (14.216)
due funzioni scalari tali che ¡ ¢
b
ξ (x) := ξ 1 , ξ 2 , Σ (x) , (14.217)
sia un sistema di coordinate locali in E (cfr. la (14.74)). La superficie S può essere localmente caratterizzata
come
x=x e (ξ α ) , (14.218)
−1
essendo xe il diffeomorfismo inverso bξ (si veda la (14.75)). Le introdotte ξ α sono dette coordinate gaus-
siane della superficie S. Poiché le curve coordinate di ξ α appartengono alla superficie S, i vettori della base
naturale
∂e
x
sα = α , (14.219)
∂ξ
sono tangenti ad S. Diremo piano tangente alla superficie S nel punto x la giacitura definita da

Π (x) = span {s1 (x) , s2 (x)} . (14.220)

Essendo dim V = 3, il campo delle normali è dato da


s1 ∧ s2
n= , (14.221)
ks1 ∧ s2 k

dove “∧” è il prodotto vettore definito dagli assiomi (13.10), (13.12), (13.13), (13.11). Introducendo i versori

tα := , α non sommato, (14.222)
ksα k

la normale può equivalentemente esprimersi come

n = t1 ∧ t2 . (14.223)

Dalla definizione (14.221) si ha che la terna (s1 , s2 , n) è una base positiva di E, ed essendo

sα · n = 0, (14.224)
¡ 1 2 ¢
ne discende che anche la sua reciproca s , s , n gode della stessa proprietà. Avendo, dalla definizione di
base reciproca
sα · sβ = δ βα , (14.225)
¡ 1 2¢ ¡ 1 2¢
le (s1 , s2 ) , s , s sono dette basi naturali¡reciproche ¢ del sistema di coordinate superficiali ξ , ξ su S.
Introducendo il sistema di coordinate locali z 1 , z 2 , z 3 in E, possiamo rappresentare la superficie S come

x (ξ α )) =: z i (ξ α ) ,
z i = zbi (x) = zbi (e (14.226)

ed ottenere di conseguenza il seguente legame tra i vettori sα della base naturale superficiale ed i vettori gi
della base naturale associata a z i :
∂z i ∂ex ∂z i
z i α = gi · sα =⇒ sα = α gi .
α = gradb (14.227)
∂ξ ∂ξ ∂ξ

Sia Tx il sottospazio dello spazio delle © traslazioni


ª V generato, nel punto x ∈ S, dai vettori naturali
superficiali {s1 , s2 } o dai loro reciproci s1 , s2 . Il prodotto scalare definito nello spazio delle traslazioni V
162 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

(che assumiamo non degenere e definito positivo, cfr. le (7.46), (7.48), (7.49)) induce in Tx un prodotto scalare
non degenere definito positivo relativo alle coordinate gaussiane ξ α . Siano u, v ∈ Tx ; si ha

u · v = uα v β (sα (x) · sβ (x)) = uα v β aαβ (x) , (14.228)

avendo introdotto le componenti della metrica superficiale

∂z i ∂z j ∂z i ∂z j
aαβ := sα · sβ = α β
gi · gj = α β gij , (14.229)
∂y ∂y ∂y ∂y
4
ovvero della matrice associata al prodotto scalare
£ . Tale
¤ matrice è evidentemente simmetrica e definita positiva
(cfr. Capitolo 7), ed esiste pertanto la inversa aαβ :

aαβ aβγ = δ γα , (14.230)

data da
aβγ = sβ · sγ . (14.231)
Utilizzando la precedente uguaglianza insieme alla (14.227) siamo quindi in grado di trovare la seguente
rappresentazione per i vettori della base naturale controvariante della superficie:

∂z i
sβ = aβγ gi . (14.232)
∂y γ
Si consideri ora un campo vettoriale definito su S:

v : x ∈ S 7→ v (x) ∈ V. (14.233)
¡ ¢
Per ogni x ∈ S, v ammette le rappresentazioni uniche nelle basi reciproche di V (s1 , s2 , n) ed s1 , s2 , n :

v = v α sα + v 3 n, v = vα sα + v3 n,
(14.234)
v α = v · sα , vα = v · sα , v 3 = v3 = v · n.

I campi vettoriali
vS := v α sα = vα sα ,
(14.235)
vn := v3 n,
sono detti rispettivamente proiezione tangenziale e proiezione normale di v. Introducendo ¡ ¢ la rappre-
sentazione del tensore metrico di E nelle basi prodotto generate dalle basi (s1 , s2 , n) ed s1 , s2 , n :

1I =
= aαβ sα ⊗ sβ + n ⊗ n
= aαβ sα ⊗ sβ + n ⊗ n (14.236)
= sα ⊗ sα + n ⊗ n
= sα ⊗ sα + n ⊗ n,

il tensore metrico superficiale si definisce come


S
1I = 1I − n ⊗ n. (14.237)

Il campo tensoriale appena introdotto si comporta come l’identità tensoriale di Tx , lasciando invariati i vettori
del piano tangente alla superficie S nel punto x, mentre, quando applicato ai vettori di V, esso proietta gli
stessi in Tx , fornendo la loro componente superficiale:
£S ¤
1I (x) (v (x)) = v (x) − (v (x) · n (x)) n (x) = vS (x) , ∀v (x) ∈ V. (14.238)

Il tensore metrico superficiale è noto in geometria differenziale come prima forma fondamentale della
superficie S.
4 Si noti che utilizzando i coefficienti della metrica i versori tangenti superficiali possono scriversi come

tα = √ , α non sommato.
aαα
14.8. ELEMENTI DI GEOMETRIA GAUSSIANA. 163

14.8.2 Derivata covariante superficiale.


Esiste una differenza fondamentale tra lo spazio puntuale euclideo E e la superficie S in esso immersa: a meno
che S non sia un piano, i piani tangenti a S variano con il punto, per cui essi non sono in generale lo stesso
sottospazio dello spazio delle traslazioni V. Ciò comporta l’impossibilità di definire il gradiente o la derivata
covariante attraverso una formula che sia direttamente derivabile dalla (14.153), in quanto un vettore di V
può essere tangente ad S in un punto ma non possedere più tale proprietà in un altro punto5 .
Sia T :U ⊂S→ Tp (Tx ) un campo tensoriale tangenziale di ordine totale p, tangenziale nel senso
¡ che
¢ possiede
componenti non nulle soltanto nella base prodotto generata dalle basi superficiali (s1 , s2 ) ed s1 , s2 . Il campo
tensoriale T ammette in tale base la rappresentazione

T=T α1 ...αp sα1 ⊗ · · · ⊗ sαp


= Tα1 α2 ...αp sα1 ⊗ sα2 ⊗ · · · ⊗ sαp ... (14.239)

Si definisce gradiente superficiale di T l’applicazione


S
gradT (x) ∈ Hom (Tx , Tp (Tx )) , (14.240)

definita da
S
gradT := T α1 ...αp kαp+1 sα1 ⊗ · · · ⊗ sαp ⊗ sαp+1 , (14.241)
dove
∂T α1 ...αp
T α1 ...αp kαp+1 = + T β α2 ...αp Γβ αp+1 α1 + · · · + T α1 ...αp−1 β Γβ αp+1 αp , (14.242)
∂ξ αp+1
è la derivata covariante superficiale, e
µ ¶
1 γµ ∂aαµ ∂aβµ ∂aαβ
Γαβ γ = a + α − = Γβα γ , (14.243)
2 ∂ξ β ∂ξ ∂ξ µ

sono i simboli di Christoffel della superficie. Poiché, come ampiamente discusso in [7], le derivate parziali dei
vettori della base naturale superficiale
∂sα
, (14.244)
∂ξ β
non sono in generali campi vettoriali, tangenti, non è possibile ottenere per essi una formula di rappresen-
tazione nei termini dei simboli di Christoffel superficiali che sia analoga alla (14.166). È tuttavia possibile
eseguire tali derivate utilizzando ancora la (14.166) con i vettori della base naturale (s1 , s2 , n) .
La definizione di divergenza superficiale del campo tensoriale T di ordine totale p ≥ 1 si ottiene
immediatamente estendendo la (14.177):
S
¡ ¢
divT := Cp p+1 S gradT , (14.245)

dove C è l’operatore di contrazione semplice. La precedente si rappresenta come


S
divT = T α1 ...αp−1 β kβ sα1 ⊗ · · · ⊗ sαp−1 , (14.246)

che, nel caso in cui sia p = 1 si riduce alla contrazione completa:


S
divv= v β kβ =S 1I ·S gradv. (14.247)

14.8.3 Seconda forma fondamentale: curvatura delle superfici.


Nella sezione precedente è stata definita la derivata covariante di un campo tensoriale definito sulla superficie
S. Tale oggetto può tuttavia riguardarsi come un campo tensoriale definito in E avente componenti non nulle
soltanto nella base prodotto
sα1 ⊗ · · · ⊗ sαp , α1 , ..., αp = 1, 2, (14.248)
generata dalla base naturale superficiale (s1 , s2 ) . Tale base è ovviamente un sottoinsieme della base (s1 , s2 , n)
di V, dove n è il campo delle normali unitarie alla superficie S. Quindi perché sia possibile definire la derivata
covariante lungo la superficie S di un campo tensoriale in generale non tangente, bisogna calcolare tale derivata
per un campo in E avente la sua unica componente non nulla lungo la direzione n.
5 Nel caso in esame si dice che non esiste un parallelismo canonico che connetta i diversi piani tangenti ad S. Per maggiori

dettagli si consulti [7].


164 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Sia dunque
γ : (a, b) → S, (14.249)
una curva di S. Poiché n è un campo vettoriale unitario, dalla (14.188) si ottiene, lungo γ
d dn dn
0= (n · n) = 2n · =⇒ n · = 0, (14.250)
dt dt dt
per cui il gradiente dn/dt è un campo vettoriale tangente. Possiamo quindi enunciare la seguente
Proposizione 210 Esiste un campo tensoriale tangenziale simmetrico di ordine totale 2
B : x 7→ B (x) ∈ T2 (Tx ) , Tx = span {s1 , s2 } , (14.251)
tale che
dn
= −B (γ̇) , (14.252)
dt
per ogni curva γ su S.
Dimostrazione L’esistenza del campo B discende immediatamente dalla (14.194) quando in essa si
identifichi T con n:
dn (γ (t))
= [gradn (γ (t))] (γ̇ (t)) , (14.253)
dt
per cui ¡ ¢
B (γ (t)) := −gradn (γ (t)) ∈ Hom T1 , T1 , (14.254)
il quale, in virtù della proposizione 145 risulta essere un tensore di T2 .
Il fatto che B sia tangente è conseguenza della (14.250).
Per provare la simmetria, si tenga presente che dalla (14.214), n risulta parallelo al gradiente di un certo
campo scalare Σ. Definendo
Σ (x)
σ (x) := , ∀x ∈ S, (14.255)
kgradΣ (x)k
si ha
n (x) = gradσ (x) , ∀x ∈ S, (14.256)
ovvero, dalla (14.252)
B = −grad (gradσ) , (14.257)
onde la simmetria.
Come risulta evidente dalla (14.252), il tensore B caratterizza la curvatura della superficie S in quanto esso
misura la variazione della normale n alla superficie. Il tensore B è noto come seconda forma fondamentale
della superficie S o tensore di Gauss-Weingarten ad esso associato. Considerato un sistema di coordinate
gaussiane ξ α per S, si ha
B = bαβ sα ⊗ sβ = bα β sα ⊗ sβ = bαβ sα ⊗ sβ , (14.258)
nella base prodotto superficiale generata da tale sistema di coordinate, con le componenti che, per la (14.252)
sono date dalle seguenti:
∂n
= −bαβ sβ = − bα β sβ , (14.259)
∂ξ α
o equivalentemente, dalle (14.222):
∂n bαβ β √
= −√ t = −bαβ aββ tβ , (14.260)
∂ξ α aββ

note in geometria differenziale classica come formule di Gauss-Weingarten. Ricordando la definizione


(14.223) si ha µ ¶
∂n ∂ ∂t1 ∂t2
= α (t1 ∧ t2 ) = ∧ t2 + t1 ∧ α , (14.261)
∂ξ α ∂ξ ∂ξ α ∂ξ
ovvero
∙µ ¶ µ ¶ ¸
1 ∂t1 ∂t2
bαβ = − √ ∧ t 2 · t β + t 1 ∧ · tβ
aββ ∂ξ α ∂ξ α
∙ ¸
1 ∂t1 ∂t2
= −√ (t2 ∧ tβ ) · α + (tβ ∧ t1 ) · α
aββ ∂ξ ∂ξ
∂sβ ∂2x
e
=n· α =n· . (14.262)
∂ξ ∂ξ ∂ξ β
α
14.8. ELEMENTI DI GEOMETRIA GAUSSIANA. 165

Le precedenti permettono il calcolo delle componenti della seconda forma fondamentale a partire dalla normale
e dalla legge ¡ ¢
x=x e ξ1, ξ2 , (14.263)
che descrive la superficie. Illustriamo il suo utilizzo calcolando le componenti della seconda forma fondamentale
per le superfici cilindriche.

• Per le superfici cilindriche si ha che il generico punto x sulla superficie stessa è dato, riferendo E ad un
sistema di coordinate cartesiane ortogonali z i :
⎧ 1 1
⎨ z = R cos ξ
z 2 = R sin ξ , ξ 1 ∈ [0, π) , ξ 2 ∈ [−H, H] .
1
(14.264)
⎩ 3 2
z =ξ

Per eseguire i calcoli, risulta conveniente scegliere una origine o ∈ E una volta per tutte, in modo tale che
x possa essere rappresentato dal vettore (x − o) dello spazio delle traslazioni il quale, detta (e1 , e2 , e3 )
la base naturale associata al sistema di coordinate cartesiane z i si rappresenta come

x = R cos ξ 1 e1 + R sin ξ 1 e2 + ξ 2 e3 . (14.265)


¡ 1 2¢
I vettori della base naturale superficiale associata al sistema di coordinate gaussiane ξ , ξ , ovvero i
vettori tangenti alle linee coordinate ξ α sono (cfr. la (14.219))

∂x
s1 = = −R sin ξ 1 e1 + R cos ξ 1 e2 ,
∂ξ 1
(14.266)
∂x
s2 = 2 = e3 ,
∂ξ

e la prima forma fondamentale è data da


µ 2 ¶
R 0
[aαβ ] = [sα · sβ ] = , (14.267)
0 1

per cui il sistema di coordinate superficiali risulta ortogonale. La normale alla superficie è, in virtù della
(14.221):
n = cos ξ 1 e1 + sin ξ 1 e2 , (14.268)
e le derivate dei vettori tangenti superficiali sono

∂s1 ∂2x 1 1
1 = ¡ ¢ = −R cos ξ e1 − R sin ξ e2 ,
1 2
∂ξ ∂ξ
∂s1 ∂s2 ∂2x
= = = 0, (14.269)
∂ξ 2 ∂ξ 1 ∂ξ 1 ∂ξ 2
∂s2
= 0,
∂ξ 2

per cui, con l’utilizzo della (14.262) si ottiene


µ ¶
−R 0
[bαβ ] = . (14.270)
0 0

Poiché B è simmetrico, per ogni x ∈ S esiste una base ortonormale (b1 (x) , b2 (x)) costituita dai suoi
autovettori; in tale base B ammette la rappresentazione spettrale (cfr. la sezione 13.8)

B (x) = κ1 (x) b1 (x) ⊗ b1 (x) + κ2 (x) b2 (x) ⊗ b2 (x) , (14.271)

dove gli autovalori κ1 (x) e κ2 (x) sono le curvature principali o curvature normali della superficie S
nel punto x. In generale non è detto che (b1 , b2 ) sia la base naturale associata ad un sistema di coordinate
gaussiane. Un sistema di coordinate rispetto al quale la matrice associata al tensore di Gauss-Weingarten
è diagonale è detto sistema di coordinate principali, e le relative curve coordinate sono dette linee di
166 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

curvatura. Relativamente ad un sistema di coordinate principali le componenti della prima e seconda forma
fondamentale soddisfano ovviamente le condizioni
a12 = 0, b12 = 0, (14.272)
e si ha inoltre
√ √
s1 = a11 b1 , s2 = a22 b2 . (14.273)
Si noti che il sistema di coordinate cilindriche precedentemente esaminato è principale, e che le curvature
principali sono date da
1 1
κ1 = b11 = = − , κ2 = 0. (14.274)
b11 R
I due invarianti principali di B dati da
Tr B =S 1I · B = aαβ bαβ = κ1 + κ2 ,
(14.275)
det B = det [ bβ α ] = κ1 κ2 =:K,
sono detti rispettivamente curvatura media e curvatura Gaussiana della superficie S. Per la superficie
cilindrica si ha
1
κ1 + κ2 = − , K = 0. (14.276)
R

14.8.4 Regioni a forma di guscio e Shifters.


Si consideri uno spazio puntuale euclideo tridimensionale E, e sia S una superficie orientabile in esso immersa
(cfr. sezione 14.8.1). Essendo S orientabile, è possibile introdurre per essa una parametrizzazione globale
attraverso una coppia di coordinate gaussiane ξ α in modo tale che ogni punto x ∈ S possa essere caratterizzato
come
x=x e (ξ α ) . (14.277)
Una regione a forma di guscio avente spessore ε modellata sulla superficie orientabile6 S dotata di
campo delle normali n è una porzione
Gε ⊂ E, (14.278)
tale che, per ogni X ∈ Gε valga la parametrizzazione globale
e (ξ α , ζ) := x
X =X e (ξ α ) + ζn (e
x (ξ α )) . (14.279)
Il valore assoluto |ζ| dell’introdotto parametro reale ζ ∈ (−ε/2, ε/2) rappresenta la distanza del punto X =
Xe (ξ α , ζ) ∈ Gε dal piano tangente alla superficie S nel punto x = x
e (ξ α ) :
X − x = ζn. (14.280)
Si noti che
e (ξ α , 0)
X0 = X (14.281)
descrive la superficie sulla quale è modellata la regione a forma di guscio; S è detta superficie media.
Una regione a forma di piastra può riguardarsi come una regione a forma di guscio modellata su
un piano. Per essa dunque la superficie media è ancora descritta dalla parametrizzazione (14.277), ma la
parametrizzazione globale per il punto X ∈ Pε ⊂ E della regione a forma di piastra Pε di spessore ε è data da
e (ξ α , ζ) := x
X =X e (ξ α ) + ζn, (14.282)
dove n è un versore costante indipendente dalle coordinate gaussiane ξ α , coincidente ovviamente con la
normale al piano medio.
Consideriamo ora le basi naturali associate al sistema di coordinate (ξ α , ζ) introdotto in Gε . Coerentemente
con la definizione (14.103) e dalla (14.279) la base covariante è data da
∂X e α
gβ (ξ α , ζ) = (ξ , ζ)
∂ξ β
µ ¶
∂ex ∂ex α
= β (ξ α , ζ) + ζ [gradn (e x (ξ α ))] (ξ , ζ)
∂ξ ∂ξ β
= [1I − ζB (ξ α )] (sβ (ξ α )) , (14.283)
∂X e α
g3 (ξ α , ζ) = (ξ , ζ) = n (ξ α ) , (14.284)
∂ζ
6 È possibile estendere la definizione che ci accingiamo a dare modellando la regione a forma di guscio su superfici non

orientabili. Tali gusci sono detti di Möbius.


14.9. OPERATORI DIFFERENZIALI SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI. 167

dove sβ sono i vettori tangenti alle linee coordinate ξ β che risultano paralleli ai corrispondenti vettori tangenti
sulla superficie media, e
B = −gradn (14.285)
è il tensore di Gauss-Weingarten (cfr. la 14.254). È evidente che la eventuale ortogonalità dei vettori (s1 , s2 )
non assicura in generale la ortogonalità dei vettori della base naturale controvariante (g1 , g2 , n) ; affinché
questi siano ortogonali occorre infatti che lo siano s1 ed s2 e che il tensore di Gauss-Weingarten sia diagonale,
ovvero che il sistema di coordinate gaussiane sia principale. Nota la base covariante, sono individuate le
componenti covarianti gij del tensore metrico, per cui, attraverso la (14.122) è possibile calcolare i vettori
della base naturale controvariante.
Al fine di legare le basi naturali nel punto X = X e (ξ α , ζ) ∈ Gε con le basi naturali della superficie media nel
punto x = X e (ξ α , 0) ∈ S si introducono due campi tensoriali di ordine totale 2, detti shifters. In particolare,
lo shifter
M (ξ α , ζ) := gα (ξ α , ζ) ⊗ sα (ξ α ) + n (ξ α ) ⊗ n (ξ α ) , (14.286)
trasforma i vettori della base covariante (s1 (x) , s2 (x) , n (x)) nel punto x ∈ S nei vettori della base covariante
nel corrispondente punto X ∈ Gε , mentre lo shifter

N (ξ α , ζ) := gα (ξ α , ζ) ⊗ sα (ξ α ) + n (ξ α ) ⊗ n (ξ α ) , (14.287)
¡ ¢
trasforma i vettori della base controvariante s1 (x) , s2 (x) , n (x) in x nei vettori della base covariante in X.

Proposizione 211 Gli shifters sono legati dalla seguente relazione:

M−1 = NT . (14.288)

Dimostrazione Dalla definizione (14.287) e dalla proposizione 159 si ha

NT = sα ⊗ gα + n ⊗ n, (14.289)

da cui, utilizzando la (13.6) e ricordando che

sα · n = sα · n = gα · n = gα · n = 0, (14.290)

si ha
¡ ¢
MNT = (gα ⊗ sα ) sβ ⊗ gβ + (n ⊗ n) (n ⊗ n)
= gα ⊗ gα + n ⊗ n = 1I, (14.291)

dove 1I è il tensore metrico di Gε nel punto X. Analogamente si ha


¡ ¢
NT M = (sα ⊗ gα ) gβ ⊗ sβ + (n ⊗ n) (n ⊗ n)
= sα ⊗ sα + n ⊗ n = 1I, (14.292)

con il tensore metrico 1I valutato ora nel punto x.


È ovvia conseguenza della proposizione precedente la seguente:

N−1 = MT . (14.293)

14.9 Operatori differenziali sulle varietà euclidee tridimensionali.


Sia E uno spazio puntuale euclideo con dim E = dim V = 3, e si assuma la orientazione V+ per lo spazio
delle traslazioni (cfr. sezione 13.2). Scelta una origine o appartenente ad un dominio D di E, è stabilita una
corrispondenza biunivoca tra punti x di D e vettori dello spazio delle traslazioni V (cfr. (14.85)) attraverso il
campo dei vettori posizione:
x = o + r (x) . (14.294)
Detto D il sottoinsieme di V costituito dai vettori posizione dei punti x ∈ D, ogni campo scalare f : D →IR
individua una funzione a valori reali fo : D → IR definita da

fo (x) := f (x) , ∀x = r (x) ∈ D. (14.295)


168 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

In modo del tutto analogo a campi vettoriali e tensoriali definiti in D corrispondono campi vettoriali e tensoriali
definiti in D. Anche se i campi definiti in D dipendono dalla scelta dell’origine o, l’effetto di un cambiamento
della stessa corrisponde ad incrementare il campo dei vettori posizione di una quantità costante:

r (x) = x − o;
x − o = (x − o) + (o − o) = r (x) + (o − o) . (14.296)

Nel seguito denoteremo quindi con f (x) il valore del campo f nel punto x ∈ D avente vettore posizione x ∈ D
¡ 1 2 sia
quando ¢ stata scelta una origine o. Considereremo inoltre sistemi di coordinate cartesiane rettangolari
x , x , x3 ; i campi definiti in D (e le loro componenti se si tratta di campi vettoriali o tensoriali) possono
dunque riguardarsi come funzioni delle introdotte coordinate cartesiane. Nella presente sezione intenderemo
inoltre per campo tensoriale una applicazione

T : x ∈ V 7→ T (x) ∈ Hom (V, V) . (14.297)

Specializziamo ora la definizione di gradiente data nella sezione 14.3. Sia f un campo scalare definito in
un dominio D. Tale campo è differenziabile in x ∈ D se esiste una applicazione lineare Lf,x ∈ Hom (V, IR)
tale che ¯ ¯
¯ f (x + τ a) − f (x) ¯¯
lim ¯¯Lf,x (a) − ¯ = 0, ∀x ∈D, a ∈V. (14.298)
τ →0 τ
Quando f è differenziabile è possibile introdurre l’unico (cfr. proposizione 206) campo vettoriale

gradf : D →Hom (V, IR) , (14.299)

detto gradiente di f e definito da


gradf (x) · a : = Lf,x (a) . (14.300)
Siano a, b ∈V e siano f , F rispettivamente un campo vettoriale ed un campo tensoriale definiti in un
dominio D ∈ E. I campi f ed F sono continui e differenziabili se grad(f · a) e grad(b·F (a)) rispettivamente
esistono e sono continui in D per ogni a, b ∈V. In altre parole assumiamo che le proprietà di continuità e
differenziabilità siano ereditate dai campi f ed F qualora esse valgano per i campi scalari f · a e b·F (a) per
ogni scelta dei campi costanti in D a e b.
Si consideri un campo vettoriale differenziabile f :D →V. Il suo gradiente è il campo tensoriale

gradf : D →Hom (V, V) , (14.301)

definito da
[gradf (x)]T (a) := grad [f · a] (x) , ∀x ∈D, a ∈V. (14.302)
La divergenza ed il rotore di f sono rispettivamente il campo scalare ed il campo vettoriale

divf :D →IR, rotf :D →Hom (V, IR) , (14.303)

definiti da

divf (x) := Tr [gradf (x)] , ∀x ∈D, (14.304)


rotf (x) · a : =div [f ∧ a] (x) , ∀x ∈D, a ∈V, (14.305)

dove “∧” è il prodotto vettore definito in V nel senso specificato dalle (13.10), (13.12), (13.13), (13.13) e “Tr”
è l’operatore traccia (cfr. (11.19)). Si noti la consistenza della definizione di divergenza data in (14.304) con
quella data nella (14.177).
Sia ora F :D →Hom (V, V) un campo tensoriale differenziabile. La sua divergenza è il campo vettoriale

divF :D →Hom (V, IR) , (14.306)

definito da
£ ¤
divF (x) · a :=div FT (a) (x) , ∀x ∈D, a ∈V. (14.307)

Proposizione 212 Siano


f : D →IR, f :D →V, F :D →Hom (V, V) , (14.308)
14.9. OPERATORI DIFFERENZIALI SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI. 169

rispettivamente un campo scalare, vettoriale e tensoriale differenziabili. Scelta una origine¡ o ∈ D e ¢la base
naturale B = (e1 , e2 , e3 ) relativa all’introdotto sistema di coordinate cartesiane rettangolari7 x1 , x2 , x3 si ha8

∂f (x)
gradf (x) = ej , (14.309)
∂xj
i
∂f (x) ∂fj (x) i ∂f k (x)
gradf (x) = (ei ⊗ ej ) , divf (x) = , rotf (x) = ε jk ei , (14.310)
∂xj ∂xj ∂xj
∂ F i j (x)
divF (x) = ei , (14.311)
∂xj
¡ ¢
dove f j (x) = f (x) · ej ed F ij (x) = ei · [F (x)] ej sono le componenti dei campi f ed F nella base B.

Dimostrazione Essendo f differenziabile per ipotesi, dalla (14.298) con i vettori della base B al posto di
a segue che esistono in D le derivate parziali ∂f (x) /∂xi e si ha inoltre Lif,x = ∂f (x) /∂xi . Dalla (14.300)
discende dunque la (14.309).
Analogamente, l’ipotesi di differenziabilità per f ed F assicura l’esistenza in D delle derivate parziali
∂f i (x) /∂xj e ∂F ij (x) /∂xj . Dato a ∈V, dalla definizione (14.302) e dalla (14.309) si ha (tenendo presente la
(13.6) e la proposizione 159)
T £ ¤
[gradf (x)] (a) = grad f i ei · a (x)
£ ¤
∂ (ei ·a) f i (x) ∂f i (x)
= ej = (ei ·a) ej
∂xj ∂xj
∙ i ¸T
∂f (x)
= (ei ⊗ ej ) (a) , (14.312)
∂xj

da cui, data l’arbitrarietà di a, la (14.310)1 . Dalla definizione (14.304) ed utilizzando la (14.310)1 e la


proposizione 164 si ha poi

∂f i (x)
divf (x) = Tr [gradf (x)] = Tr (ei ⊗ ej )
∂xj
∂f i (x) ∂f i (x) ∂fj (x)
= j
(ei · ej ) = δ ij = , (14.313)
∂x ∂xj ∂xj
ovvero la (14.310)2 . Considerando infine la definizione (14.305) combinata con la (14.310)2 e la (13.20) si
ottiene
£ ¤
rotf (x) · a=div [f ∧ a] (x) = div f i ei ∧ aj ej (x)
£ ¤ ∂f i (x) j
= div εij k f i aj ek (x) = εijh a
∂xh
i i
∂f (x) j ∂f (x)
= εijh h
e · a = εj hi ej · a, (14.314)
∂x ∂xh
ovvero la (14.310)3 .
La dimostrazione della (14.311) si esegue considerando la definizione (14.307) insieme alla (14.310)2 :
£ ¤ £ ¤ ∂Fji (x) j
divF (x) · a=div FT (a) (x) = div Fj i aj ei (x) = a
∂xi
∂Fji (x) j ∂Fji (x) jk ∂ F k i (x)
= i
e ·a= i
δ ek · a = ek · a. (14.315)
∂x ∂x ∂xi

Sono immediata conseguenza delle proprietà stabilite nella proposizione precedente le seguenti:

[gradf f ] (x) = f (x) ⊗ gradf (x) + f (x) gradf (x) , (14.316)


T
[divF (f )] (x) = f (x) · divF (x) + Tr [F (x) gradf (x)] , (14.317)
[divf f ] (x) = f (x) · gradf (x) + f (x) divf (x) (14.318)
[divf F] (x) = FT (x) gradf (x) + f (x) divF (x) . (14.319)
7I vettori di B sono evidentemente versori costanti.
8 Utilizzeremo di seguito la convenzione di Einstein, ovvero, salvo diversa specifica, gli indici ripetuti si considereranno sommati
nel loro insieme di variabilità.
170 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

14.10 Teoremi di integrazione sulle varietà euclidee tridimensio-


nali.
Si consideri, analogamente a quanto fatto nella precedente sezione,¡ uno spazio¢ puntuale euclideo tridimension-
ale E riferito ad un sistema di coordinate cartesiane rettangolari x1 , x2 , x3 . Si assume che il lettore possegga
le nozioni di base di geometria differenziale delle curve e delle superfici orientate e i concetti base della teoria
dell’integrazione. Indicheremo con dx un elemento orientato di una curva in E mentre gli elementi di area e
di volume verranno denotati rispettivamente con dA e dV.
La seguente proposizione fornisce uno strumento importante nella derivazione delle equazioni di campo
nella meccanica dei continui.

Proposizione 213 Sia f : D →IR un campo scalare continuo in un dominio D ⊂ E. Se


Z
f dV = 0, (14.320)
R

per ogni regione R contenuta in D, allora f = 0 in D.

Dimostrazione La dimostrazione procederà per assurdo supponendo che la tesi sia falsa. Esisterebbe
dunque un punto y ∈ D avente vettore posizione y ∈ D, quando sia stata scelta una origine o, tale che
f (y) 6= 0. Sia f (y) = 2κ, e si assuma κ > 0. Poiché D è un aperto, y deve essere necessariamente un punto
interno; esiste dunque almeno una sfera aperta di raggio δ > 0 centrata in y, Bδ (y) , i cui punti appartengono
tutti a D (tale sfera è evidentemente il sottoinsieme di D costituito dai punti la cui distanza da y è minore di
δ). La continuità di f in y implica l’esistenza di un reale 0 < δ 0 < δ tale che

|x − y| < δ 0 ⇒ |f (x) −f (y)| < κ. (14.321)

La sfera Bδ0 (y) è una regione contenuta in D; considerato un punto x ∈ Bδ0 (y) , la precedente equazione
implica che
−κ < f (x) −f (y) < κ ⇒ f (x) > f (y) − κ = κ, (14.322)
da cui Z Z
4 03
f dV > κ dV = πδ κ > 0, (14.323)
Bδ0 (y) Bδ0 (y) 3
il che è un assurdo contraddicendo l’ipotesi. Si deduce quindi che f non può essere positivo in nessun punto
di D. Analogamente, assumendo che κ < 0 si evince che f non può essere negativo in D, il che implica in
definitiva la tesi.
Dal momento che ci limitiamo a considerare campi vettoriali e tensoriali in uno spazio puntuale euclideo, è
semplice definire integrali di volume, superficie e di linea di campi vettoriali e tensoriali definiti rispettivamente
in volumi superfici e curve semplicemente introducendo la loro rappresentazione in un sistema di coordinate
cartesiane rettangolari ed integrando ciascuno dei campi scalari ottenuti.
Una operazione fondamentale nella derivazione delle equazioni di campo è la trasformazione di un integrale
definito sulla frontiera ∂R di una regione R in un integrale definito su R stessa. Lo strumento fondamentale
per eseguire tale operazione è il teorema della divergenza, del quale si fornisce di seguito l’enunciato
rimandando ai corsi e ai testi di analisi matematica la dimostrazione.

Proposizione 214 Considerata una regione R regolare9 di E e la sua frontiera ∂R, sia f un campo vettoriale
di classe C 1 nell’interno di R e di classe C 0 su ∂R e sia n il campo delle normali unitarie sulla frontiera
∂R. Allora Z Z
f · ndA = divf dV. (14.324)
∂R R

La proposizione precedente si presta a generalizzazioni che riguardano campi tensoriali. A tal proposito è
utile dimostrare la seguente:

Proposizione 215 Si considerino un campo tensoriale F ed un campo vettoriale g entrambi di classe C 1 nel-
l’interno di R e di classe C 0 su ∂R, e siano a, b due campi vettoriali costanti. Nelle ipotesi della proposizione
precedente si ha Z Z
£ ¡ T ¢¤ £ ¤
g⊗ F (n) dA = gradgF + g⊗divFT dV. (14.325)
∂R R
9 Intendiamo per regolare una regione la cui frontiera ∂R sia l’unione di un numero finito di superfici su ciascuna delle quali
è definito un campo continuo di vettori normali.
14.10. TEOREMI DI INTEGRAZIONE SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI. 171

Dimostrazione Sostituendo nella (14.324) f con il campo vettoriale (g · a) F (b) si ottiene


Z Z
[(g · a) F (b)] ·ndA = div [(g · a) F (b)] dV. (14.326)
∂R R

Utilizzando poi le (13.33), (13.6) è possibile stabilire l’identità


¡ ¢ £ ¡ ¢¤
[(g · a) F (b)] ·n = FT (n) ·b g · a = a· g⊗ FT (n) (b) , (14.327)
mentre le (14.302), (14.307), (14.318) porgono
div [(g · a) F (b)] = F (b) · grad [(g · a)] + (g · a) div [F (b)]
£ ¤
= F (b) · [gradg]T (a) + (g · a) divFT · b
¡£ ¤ ¢
= a· [gradgF] (b) + divFT · b g · a
£ ¤
= a· gradgF + g⊗divFT (b) , (14.328)
da cui
Z Z
£ ¡ ¢¤ £ ¤
a· g⊗ FT (n) (b) dA = a· gradgF + g⊗divFT (b) dV, ∀a, b ∈ V, (14.329)
∂R R

ovvero, data l’arbitrarietà di a, b la tesi.


La precedente proposizione permette di ricavare alcune interessanti relazioni come suoi casi particolari.
Proposizione 216 Nelle ipotesi della proposizione precedente valgono le seguenti equazioni:
Z Z
g ⊗ ndA = gradgdV, (14.330)
∂R R
Z Z
F (n) dA = divFdV, (14.331)
Z ∂R Z R
g ∧ ndA = rotgdV. (14.332)
∂R R

Dimostrazione La prima si ottiene dalla (14.324) quando F è posto pari alla identità di Hom (V, V) ,
mentre la seconda si ottiene ancora dalla (14.324) riguardando g come un campo vettoriale costante. La terza
si ottiene considerando la seguente catena di uguaglianze:
Z Z Z
rotg · adV = div (g ∧ a) dV = (g ∧ a) · ndA
R
Z R ∂R

= (g ∧ n) · adA, a ∈V, (14.333)


∂R

dove sono state utilizzate le (14.305) e la (14.324) ed è stato introdotto il campo vettoriale costante a.
Proposizione 217 Sia f un campo vettoriale di classe C 1 nell’interno di R e di classe C 0 su ∂R e sia n il
campo delle normali unitarie sulla frontiera ∂R. Allora il campo tensoriale antisimmetrico (cfr sezione 13.9)
gradf −gradf T ha come vettore assiale rotf .
Dimostrazione Dalla (14.330) si ha che, dato i campi vettoriali costanti a, b :
Z Z
£ T
¤
b· gradg−gradg (a) dV = b· [g ⊗ n − n ⊗ g] (a) dA
R
Z Z ∂R
= b· [(n ∧ g) ∧a] dA = n· [g ∧ (a ∧ b)] dA (14.334)
∂R ∂R
Z Z Z
= div [g ∧ (a ∧ b)] dV = rotg· (a ∧ b) dV = b·rotg ∧ adV,
R R R

avendo fatto uso delle (14.330), delle proprietà del prodotto vettore e della (14.333). Dalla proposizione
213 discende £ ¤
b· gradg−gradgT (a) = b·rotg ∧ a, ∀a, b ∈ V, (14.335)
onde l’asserto data l’arbitrarietà di a e b.
Come ultimo strumento per la derivazione delle equazioni di campo nella meccanica del continuo consi-
deriamo il teorema di Stokes, il quale ci permette di trasformare gli integrali definiti su una linea chiusa in
integrali definiti su una superficie avente tale linea come bordo.
172 CAPITOLO 14. CENNI DI ANALISI TENSORIALE

Proposizione 218 Sia Σ una superficie regolare avente come bordo una curva chiusa Γ regolare entrambe di
classe C 1 . Sia poi f un campo vettoriale di classe C 1 in un dominio contenente Σ. Allora
I Z
f ·dx = rotf · ndA, (14.336)
Γ Σ

quando il verso di Γ sia concorde rispetto al campo n dei vettori normali unitari alla superficie Σ, ovvero
quando si abbia che dati x, y ∈ Γ, con y successivo ad x nel verso specificato per Γ e z ∈ Σ, z ∈
/Γ:

∃ε > 0 : n (z) · [(z − y) ∧ (x − z)] > 0, ∀ |x − z| < ε, ∀ |z − y| < ε. (14.337)


Capitolo 15

CENNI DI TEORIA DEI MODELLI

Quanto esposto in questo capitolo mi è stato insegnato dal Prof. Luigi De Luca, primo motore dei miei studi
scientifici e mio carissimo zio.

15.1 Introduzione.
La seconda parte di questo testo è un supporto didattico ad un corso di Scienza delle Costruzioni e di Meccanica
dei Solidi per allievi ingegneri. Ci si può legittimamente chiedere il perché di un capitolo che sembra trattare
piuttosto di questioni di Filosofia della Scienza. Una iniziale giustificazione di questa scelta può essere trovata
invocando il principio di autorità.
Il corso di Scienza delle Costruzioni, nell’impostazione e nei contenuti, è stato elaborato da molte ge-
nerazioni di docenti e scienziati. Ebbene in tutti i corsi -anche i peggiori sia dal punto di vista scientifico-
tecnologico (per quanto riguarda la scelta degli argomenti trattati) sia didattico (relativamente a come i
predetti contenuti sono esposti)- si tenta di fondare la disciplina a partire da una rigorosa analisi dei suoi
principi scientifici. Bisogna ammettere che, purtroppo, talvolta questo tentativo è perseguito soltanto per
mezzo di un artificio: cioè utilizzando un linguaggio esoterico1 .
D’altra parte la Scienza delle Costruzioni, che in francese è chiamata Resistance des Materiaux ed in
Inglese Strenght of Materials, ha avuto come fondatori Galileo, Eulero, almeno due membri della famiglia
Bernoulli, Navier, Cauchy, Saint-Venant, Maxwell, Beltrami. Essa è stata riconosciuta, fin dalla istituzione
dell’Ecole Polytechnique, una materia di base nella scuola di applicazione per ingegneri perché non tratta
direttamente delle regole tecniche del progettare in sicurezza ed efficienza una struttura. (Tali regole sono
importantissime, e la loro valenza scientifica, culturale e formativa non deve assolutamente essere messa in
discussione: esse sono oggetto dei corsi successivi, come per esempio quello di Tecnica delle Costruzioni,
Geotecnica, Costruzioni Idrauliche, Costruzioni Aeronautiche, Robotica ecc.)
La Scienza delle Costruzioni ha piuttosto come finalità il portare l’allievo ingegnere alla conoscenza di al-
cuni modelli matematici di una enorme mole di fenomeni (quelli che occorrono quando un qualsiasi materiale
o struttura si deformano) la cui descrizione è essenziale per progettare, controllare e prevedere il comporta-
mento di una infinità di apparati, tecnologie ed artefatti ingegneristici. Tuttavia non è disciplina di base, per
l’ingegneria, come le matematiche, la fisica o la chimica: infatti nella modellazione dei fenomeni meccanici che
sono alla base del comportamento delle strutture deve essere incessante il riferimento alle ipotesi semplifica-
trici necessarie per ottenere modelli matematicamente trattabili e contemporaneamente capaci di descrivere
fenomeni non banali e di interesse nelle applicazioni. Quindi la sua trattazione non può e non deve essere né
puramente logico-deduttiva, ché altrimenti si confonderebbe la Scienza delle Costruzioni con una parte delle
matematiche che essa utilizza, né generale e fondamentale come accade nei corsi di fisica o chimica: l’am-
bito della modellazione deve essere ristretto ad una particolare classe di fenomeni meccanici tenendo sempre
chiaramente in vista l’utilizzo nella pratica ingegneristica dei modelli introdotti.
Questa dichiarata autolimitazione dell’ambito dei suoi interessi non deve essere però fraintesa: recente-
mente i modelli tradizionalmente sviluppati nell’ambito della Scienza delle Costruzioni hanno dimostrata la
loro attualità e modernità, giocando un ruolo cruciale nello sviluppo di nuove ed importanti tecnologie. Si pen-
si, ad esempio, ai fenomeni in biomeccanica, piezoelettricità, magnetostrizione, ferromagnetismo che si stanno
1 Ovviamente il linguaggio esoterico più facilmente disponibile per impressionare il profano è quello fornito dalla matematica,

e l’effetto voluto è tanto più facilmente ottenuto quanto più moderno è il formalismo utilizzato e quindi quanto più ristretto il
numero dei lettori che ne abbiano una ragionevole padronanza. Si noti tuttavia che è stato sviluppato un linguaggio da iniziati
proprio dei cultori della Scienza delle Costruzioni e della Meccanica delle Strutture, linguaggio che è utilizzato talvolta solo per
rivendicare la loro particolarità di tecnologi astratti.

173
174 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI

rivelando così importanti in molti campi dell’ingegneria ambientale, biomedica, aerospaziale, elettronica e
delle telecomunicazioni.
La visione precedentemente esposta è unanimemente condivisa da tutti quelli che in passato hanno af-
frontato il problema di scegliere gli argomenti per il corso e di scrivere un testo per i propri studenti: sebbene
concepiti molti decenni fa, a mio avviso, sono molto suggestivi i testi di Colonnetti [12] o di Baldacci [3].
Molto istruttivo, anche per chi ritenga di conoscere già la materia, è il testo, più moderno, usato all’Ecole
Polytechnique da J.Salençon [36].
Ma il principio di autorità non deve essere il solo a motivare la scelta di parlare di Teoria dei Modelli
nel presente contesto. In ogni corso di Scienza delle Costruzioni si espongono i fondamenti della teoria della
trave e di quella dei corpi deformabili. Oggetto di queste teorie sono il comportamento meccanico di strutture
sottoposte a carichi esterni e vincolate. Ora uno stesso blocco di materiale (snello) soggetto ad un dato sistema
di carichi viene mo in letteratura in modi molto diversi:

1. utilizzando il modello di trave di Eulero-Bernoulli, la cinematica del blocco è descritta per mezzo della
sua curva d’asse e la sua resistenza da una o al più due rigidezze (flessionale ed estensionale);
2. utilizzando il modello di Timoshenko, tale cinematica è ulteriormente precisata introducendo il campo
delle rotazioni delle sue sezioni trasversali alla curva d’asse cosicchè almeno una rigidezza al taglio deve
essere aggiunta;
3. utilizzando l’approccio alla Cauchy (anche limitandosi al caso di piccole deformazioni) la cinematica dello
stesso blocco è di molto complicata, essendo caratterizzata da un campo di spostamenti definito su di
una forma tridimensionale del corpo, detta forma di riferimento, mentre per descrivere la deformabilità
sono necessarie in generale ventuno rigidezze;
4. utilizzando una teoria atomica (si ricorderà che in un primo tentativo dovuto a Navier questo era
proprio l’approccio utilizzato) la cinematica è quella di molte moli (nel senso di Avogadro) di particelle
materiali collegate fra loro (di qui una dettagliatissima descrizione delle modalità di deformazione del
corpo considerato) da forze centrali di tipo elastico.

Si noti che una analisi empirista della serie presentata di descrizioni dello stesso oggetto fisico porterebbe
a concludere che ciascuna di tali descrizioni è più vera di quella precedente; tra l’altro tale analisi avrebbe
difficoltà a giustificare il fatto che l’ordine di elencazione scelto non è cronologico. Ancora più difficile, in questa
ottica, sarebbe giustificare il perchè non si proponga l’utilizzo di una qualche Teoria Quanto-Relativistica che
utilizzi quarks o qualche altro costituente elementare della materia. Ovviamente questa regressione verso
l’infinitamente dettagliato, dettata dal tentativo di identificare la vera natura dei sistemi meccanici studiati, è
fondamentalmente inutile perché rende impossibile lo studio del comportamento di semplici strutture utilizzate
in tante applicazioni, non solo ingegneristiche.
L’atteggiamento più appropriato da assumere è proprio quello proposto nell’ambito della teoria dei modelli
(una elegante trattazione della quale si può trovare, per esempio, nel saggio di R. Aris [1]): rinunciando ad
inseguire la vera natura dell’ente fisico oggetto dello studio ci si limita a modellarne alcuni aspetti che risultino
importanti in una classe di situazioni e di fenomeni ben precisata. Il modello di Cauchy risulterà appropriato
quando sia rilevante il dettaglio della deformazione delle sezioni trasversali del corpo snello, quello di Eulero
quando questa deformazione abbia effetti trascurabili, rimanendo tali sezioni trasversali ortogonali alla linea
d’asse, mentre la teoria di Timoshenko sarà utile nel caso in cui si presentino scorrimenti di taglio, cioè difetti
di ortogonalità delle citate sezioni. Non risulta che sia stato fino ad ora di una qualche utilità studiare la
struttura di un’ala di aeroplano a livello atomico, o in regime di velocità prossime a quelle della luce, ma non
è saggio pronunciarsi per le necessità che si possano presentare in futuro.
È interessante notare (si veda per esempio ancora Aris [1] oppure il manuale Pensare per Modelli della
Open University [41]) che i vari modelli proposti di corpo deformabile e di strutture reticolari sono considerati
sistematicamente come esempi di modelli di successo e per meglio spiegare le affermazioni generali della
Teoria dei Modelli: infatti uniscono quelle rare caratteristiche di maneggevolezza matematica e di precisione
descrittiva della realtà che sono auspicabili in ogni modello matematico di un qualche fenomeno fisico.
Probabilmente è la familiarità con i vari modelli di corpo deformabile - insieme alla necessaria capacità di
passare da una descrizione all’altra di un medesimo ente fisico e di stabilire delle relazioni fra tali differenti
descrizioni - che rende, in generale, i cultori della Scienza delle Costruzioni contemporaneamente così inclini allo
studio delle applicazioni, all’astrazione matematica ed alle discussioni metafisiche. Un’altra loro caratteristica
peculiare è la tendenza alla estrema precisione dei loro discorsi, unita ad una cura quasi maniacale della scelta
delle parole utilizzate. Tale caratteristica è facilmente comprensibile quando si tenga conto che nell’uso dei
vari modelli da loro utilizzati correntemente è importantissimo, pena una confusione inestricabile di concetti
e significati, distinguere, attribuendo loro diversi nomi, fra diversi enti: quelli fisici, che appartengono al
15.2. MORFISMI. 175

mondo dei fenomeni che vogliamo descrivere (i corpi deformabili) e quelli astratti, che servono come modello
matematico dei primi (trave di Eulero, trave di Timoshenko, Continuo di Cauchy).
Il necessario confronto fra le prestazioni dei vari modelli spiega, infine, sia le citate tendenze alla metafisica
che la necessità di scegliere diversi nomi per caratterizzare i diversi enti matematici utilizzati per descrivere
un medesimo ente fisico.
Il fatto che una ragionevole padronanza dei metodi della Scienza delle Costruzioni richieda l’utilizzo
di diversi registri intellettuali induce talvolta gli allievi ingegneri a non accettarne l’utilità ed a ritenerla
incomprensibile e lontana dalla pratica.
Al lettore che, arrivato a questo punto, ritenga di poter dedurre dalla presente introduzione la totale in-
utilità delle sezioni successive si può consigliare di, tout simplement, saltarle: la sua posizione è altrettanto
rispettabile di quella rappresentata dalla letteratura -di parte- che viene citata a difesa delle scelte fatte nella
loro stesura. Il più antico sostenitore di cui si abbia notizia della inutilità della Teoria dei Modelli e della sua
visione di base è Sesto Empirico, come chiaramente si evince fin dalle prime frasi del suo Adversus Mathe-
maticos: insieme a molti suoi epigoni egli recisamente nega l’utilità dei modelli matematici nella descrizione
del mondo fisico.
Al lettore che ritenga, invece, di leggere le sezioni seguenti è dovuto un avvertimento: non si aspetti di
potere apprezzare appieno gli esempi che vi troverà prima di avere assimilato i concetti esposti nei capitoli suc-
cessivi. Questo prologo deve essere considerato anche un epilogo da rileggere come capitolo di riorganizzazione
della materia trattata in tutto il presente testo.

15.2 Morfismi.
l’aspetto più delicato del nostro tentativo di dare una rappresentazione logica del mondo fisico è racchiuso nel
concetto di modello matematico. Per illustrare tale concetto (utilizziamo qui una rielaborazione di quanto
esposto nel manuale Algebra della Open University [40]) dobbiamo fare ricorso alla nozione algebrica di
morfismo, di seguito introdotta.
Siano (X1 , X2 , X3 ) e (Y1 , Y2 , Y3 ) due terne di insiemi, per ciascuna delle quali sia definita una operazione
binaria. Una tale operazione associa ad ogni coppia di elementi in X1 × X2 (risp. Y1 × Y2 ) un elemento di X3
(risp.Y3 ). Indicandole rispettivamente con i simboli ¯ e ¡ avremo:

¯ : X1 × X2 → X3 ,
(15.1)
¡ : Y1 × Y2 → Y3 ,

¯ : (x1 , x2 ) ∈ X1 × X2 7→ (x1 ¯ x2 ) ∈ X3 ,
(15.2)
¡ : (y1 , y2 ) ∈ Y1 × Y2 7→ (y1 ¡ y2 ) ∈ Y3 .
Siano inoltre fi (i = 1, 2, 3) una terna di applicazioni iniettive da Xi ad Yi :

fi : Xi → Yi , fi : xi ∈ Xi 7→ fi (xi ) ∈ Yi . (15.3)

Costruiamo il seguente diagramma:




(x1 , x2 ) ∈ X1 × X2 ¯ x1 ¯ x2 ∈ X3

(f1 , f2 ) ↓ & f3 (15.4)

(f1 (x1 ) , f2 (x2 )) ∈ Y1 × Y2 ¡ f1 (x1 ) ¡ f2 (x2 ) ∈ Y3 ?= f3 (x1 ¯ x2 )




A priori le due “strade” che partono dalla coppia (x1 , x2 ) non portano allo stesso risultato, ovvero in generale
non vale il segno di uguale in basso a destra nel diagramma.
Nel caso particolare in cui i due risultati coincidano sempre (cioè per ogni coppia (x1 , x2 )), la terna di
applicazioni (fi ) è detta morfismo della struttura algebrica (X1 × X2 × X3 , ¯) nella struttura algebrica
(Y1 × Y2 × Y3 , ¡) .
I due esempi che seguono servono ad illustrare meglio il concetto di morfismo appena introdotto.

• Il logaritmo di un numero reale positivo rappresenta un morfismo di IR munito dell’operazione prodotto


in IR munito dell’operazione somma poichè

log(xy) = log(x) + log(y). (15.5)


176 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI

Si noti che nel caso in esame i tre insiemi Xi ed i tre insiemi Yi sono tutti copie di IR e tutte e tre le
funzioni fi coincidono con log . Come già dimostrato da Archimede nel suo Arenario (si veda Boyer [8] e
Lucio Russo [35]) un tale morfismo è molto utile quando si vogliano calcolare i prodotti di numeri molto
grandi.

• Consideriamo a) un circuito RLC collegato in serie ad un generatore di potenziale V (t) e b) una particella
materiale di massa m, in moto su una retta assegnata, soggetta ad una forza esterna assegnata F (t),
una forza di richiamo elastica lineare con costante k ed una forza di attrito proporzionale alla velocità,
con costante di viscosità µ. Consideriamo poi i) l’operazione che associa alla coppia circuito RLC
e generatore di potenziale il segnale carica capacitiva Q(t) corrispondente ad un certo stato iniziale
del circuito RLC; ii) l’operazione che associa alla coppia particella materiale e forza esterna il moto
x(t) corrispondente ad un certo stato iniziale della particella; iii) le funzioni che associano le costanti
RLC alle costanti µ, m, k , V (t) rispettivamente ad F (t) e Q(t) ad x(t) (tutte le grandezze considerate
essendo opportunamente adimensionalizzate). L’evidenza sperimentale permette di affermare che, in
una ampia gamma di situazioni, le tre funzioni (rispetto le operazioni) introdotte rappresentano un
morfismo. Solitamente quando un tale morfismo fra fenomeni fisici viene osservato si dice che si è
stabilita un’analogia fisica.

Il concetto di analogia fisica è stato utilizzato sovente nell’insegnamento delle materie tecnico-scientifiche
e nella pratica professionale perché si ritiene che grazie ad esso si ottengano interessanti suggerimenti sul
comportamento dei due fenomeni così confrontati. In passato, per esempio, sono stati trovati circuiti elettrici
analoghi ad alcune strutture particolarmente interessanti nelle applicazioni dell’ingegneria civile: tali circuiti
sono da considerarsi come calcolatori analogici utilizzabili per la progettazione delle citate strutture. Op-
pure, ancora, nello studio delle travi di Saint-Venant è stato notato come, utilizzando una sorprendente analo-
gia fisica con i fenomeni di deformazione di una membrana di uguale sezione, si possano ottenere interessanti
informazioni sulla loro deformazione torsionale. L’analogia fisica fra due fenomeni è spesso giustificata solo
invocando l’accertamento di una solida evidenza sperimentale. In realtà (si veda la bella discussione sviluppa-
ta in Feynman [14]) tutte le analogie fisiche sono sempre ottenute per mezzo della mediazione di due processi
di modellazione matematica: i) due fenomeni fisici sono modellati per mezzo di opportuni enti matematici ed
equazioni differenziali; ii) fra tali enti ed equazioni si stabilisce una corrispondenza biunivoca; iii) si dimostra
infine che, note le soluzioni delle equazioni modello del primo fenomeno, sono note anche quelle relative al
secondo (e viceversa); iv) infine si collegano fra di loro gli aspetti dei due fenomeni confrontati ritenuti nei
modelli matematici già introdotti.
Purtroppo spesso la trattazione di questo complesso procedimento viene semplificata non riportando i
passi da i) a iii) ma semplicemente riferendo il risultato ottenuto in iv).

Esempio 219 Consideriamo a) l’insieme Γ delle curve di classe C 1 a tratti nello spazio puntuale euclideo
tridimensionale e l’insieme delle distribuzioni (nel senso di Schwartz) di forze e momenti definito sulla generica
γ ∈ Γ; b) l’insieme delle forme di un corpo deformabile B e l’insieme delle possibili interazioni meccaniche
di tale corpo con il mondo esterno; supponiamo inoltre che B sia snello, cioè che in presenza delle citate
interazioni abbia sempre una forma in cui una dimensione sia dominante rispetto alle altre due. Conside-
riamo poi i) l’operazione che, per mezzo della soluzione dell’equazione differenziale della linea Elastica detta
di Eulero, associa ad una curva γ 0 e ad una distribuzione di forze e momenti la curva γ; ii) l’operazione che
associa alla forma indeformata e ad una interazione la forma che il corpo assume a causa di quest’ultima;
iii) le funzioni che associano ad una curva γ la forma del corpo ottenuta traslando una figura piana (detta
sezione) lungo la stessa γ, e ad una distribuzione di forze e momenti la corrispondente interazione meccanica.
Si noti che nell’esempio in esame gli insiemi X1 e X3 , Y1 e Y3 e le funzioni f1 e f3 coincidono. L’evidenza
sperimentale dimostra che in un’ampia gamma di situazioni le funzioni (rispetto alle operazioni) appena de-
finite rappresentano un morfismo. Oggetto della teoria della trave di Bernoulli-Navier (formalizzazione delle
idee di Eulero) e di una gran parte dei corsi di Scienza delle Costruzioni è la costruzione e l’analisi di tale
morfismo.

15.3 Modelli Matematici di Fenomeni Fisici.


Facendo riferimento all’Esempio 219, e secondo la nomenclatura utilizzata da Aris [1], possiamo dire che gli
enti descritti al punto b) sono il prototipo dell’insieme degli enti descritti al punto a), che, a causa dell’esistenza
del morfismo introdotto, ne sono un modello matematico.
Data una ben precisata classe di enti e di fenomeni fisici un loro modello matematico è ottenuto:
15.3. MODELLI MATEMATICI DI FENOMENI FISICI. 177

1. Scegliendo, a priori, una classe di enti matematici e di regole di identificazione fra enti matematici ed
enti fisici;

2. Verificando in quali circostanze le citate regole di identificazione sono effettivamente un morfismo, facen-
do uso sia di ragionamenti logico-deduttivi (per investigare le relazioni fra gli enti matematici introdotti)
sia del metodo sperimentale (per investigare le relazioni fra gli enti fisici considerati).

15.3.1 Una visione induttivista del concetto di modello matematico.

A seconda di quale sia l’insieme di definizione delle funzioni fi che appaiono nella definizione di morfismo
data nella sezione precedente, il nostro modellista avrà una visione induttivista o deduttivista del metodo
scientifico.
Consideriamo il seguente diagramma di morfismo:

Insieme degli operazioni fisiche risultati


oggetti fisici −→ fisici

modello ↓ modello ↓ (15.6)

Insieme degli operazioni matematiche risultati


oggetti matematici −→ matematici

Questo diagramma riflette una visione induttivista (e ci sembra di poter dire Platonico-Newtoniana) che si
basa sulla speranza di poter trovare, forse dopo una serie di tentativi ed errori, il modello: cioè il morfismo
tra il mondo fisico e l’insieme degli oggetti matematici utilizzato per descriverlo. La speranza consiste nel
ritenere che l’intera realtà sia rappresentabile nell’universo matematico e quindi, almeno in linea di principio,
completamente prevedibile. Si vuole intendere cioè che i due mondi hanno in sostanza la stessa forma (Galilei
afferma che il gran libro della natura è scritto con i caratteri della matematica e della geometria): il progresso
della scienza consisterebbe, in tale visione, nell’aggiungere sempre più dettagli (cioè oggetti matematici) nella
nostra descrizione del mondo.
La validità universale del modello sarebbe verificata sperimentalmente in maniera indiscutibile proprio
accertandosi della chiusura del diagramma, ovvero della perfetta corrispondenza tra risultati matematici e
risultati fisici.
A difesa della visione induttivista vengono ricordati (a nostro avviso a sproposito) i successi della meccanica
Newtoniana: per esempio utilizzando il modello Newtoniano del sistema solare Gauss aveva calcolato l’effetto
sull’orbita di un pianeta intorno al Sole della presenza di un altro pianeta dall’orbita più esterna. Analizzando
l’orbita di Urano, fu possibile a Leverrier, nel 1846, verificare l’esistenza di Nettuno. Tale argomentazione è
stata facilmente confutata da Bertrand Russell con il suo aneddoto del tacchino induttivista2 (per maggiori
dettagli si veda la p.24 di Chalmers [10]).

15.3.2 Una visione deduzionista-falsificazionista del concetto di modello matem-


atico.

Il meccanicismo scientifico Newtoniano è da considerare troppo ambizioso. Più modestamente, seguendo la


visione di K.Popper, bisogna rassegnarsi a considerare, invece di (15.6) il seguente altro diagramma:

2 Un tacchino induttivista, serio sperimentatore, decide di formulare una teoria riguardo le modalità con cui il fattore nutre

i suoi tacchini. D’inverno e d’estate, se piove o se è tempo sereno, in tutti i giorni della settimana, se ha litigato o meno con
la moglie, ecc. ecc. il fattore alle 19 in punto nutre tutti i tacchini. Il tacchino, confortato dall’enorme mole di dati raccolti
l’antivigilia di Natale enuncia solennemente la sua legge universale: Il fattore ci nutre sempre e lo fa alle 19 in punto. Alle 11
della vigilia di Natale al tacchino fu tirato il collo.
178 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI

Insieme degli operazioni matematiche risultati


oggetti matematici −→ matematici

modello↓ modello↓ (15.7)

Insieme degli operazioni fisiche risultati


oggetti fisici −→ fisici
Nella visione deduzionista-falsificazionista si riconosce esplicitamente che la teoria precede l’osservazione
e la dirige, e si rinuncia alla pretesa che le teorie siano accertabili come (anche probabilmente) vere in forza
dell’evidenza sperimentale. Le teorie sono congetture speculative, avanzate a titolo di prova, ipotesi create
nel tentativo di risolvere le incongruenze presentatesi nelle teorie precedenti e di descrivere il comportamento
di alcuni aspetti della realtà. Quando tali congetture sono state formalizzate debbono essere sottoposte al
vaglio del confronto con l’evidenza sperimentale: in questo modo le teorie più efficaci sono selezionate mentre
quelle confutate sono scartate. Pur rinunciando ad affermare che una teoria è vera si può sostenere che è la
migliore a disposizione, cioè più adatta delle precedenti.
Il compito del modellista (e l’ordine è anche temporale) consiste nello 1) sviluppare teorie (in greco teoria
significa visione, osservazione)3 , cioè creare sistemi di assiomi e dedurre da essi un insieme significativo di
teoremi 2) stabilire corrispondenze tra gli oggetti di una data teoria e parti limitate della realtà (le funzioni
fi della definizione di morfismo sono iniettive ma non suriettive!) 3) verificare che tutte le previsioni prodotte
nell’ambito della teoria non siano confutate sperimentalmente (le fi sono un morfismo, limitatamente ad
alcuni sottoinsiemi di fenomeni e situazioni fisiche).
Caratteristica fondamentale di un dato modello è la sua falsificabilità: nell’ambito di un dato modello
bisogna poter prevedere che un dato fenomeno accadrà (o non accadrà) in modo che l’evidenza sperimentale
possa verificare o confutare (falsificare) il modello proposto.
Questa concezione del metodo scientifico, sebbene possa sembrare limitativa, è probabilmente in grado di
dare un quadro unitario e comprensibile del modo d’investigare proprio della scienza.
Può essere interessante scoprire che, nel formulare la sua storica abiura, Galileo abbracciò una dottrina
epistemologica molto simile a quella falsificazionista e che successivamente, nella sua prigione di Arcetri, ebbe
il permesso di studiare solo la nuova Scienza della Deformabilità dei Corpi.
Chi a questo punto ritenesse di voler resistere nella sua posizione induttivista dovrebbe anche ricordare
che la meccanica newtoniana applicata allo studio del moto dei pianeti non può considerarsi dimostrata dalle
esperienze di Leverrier: infatti più recentemente è stato possibile descrivere l’evidenza sperimentale relativa
al moto di Mercurio solo grazie alla meccanica relativista.

15.4 Relazione fra Matematica, Scienza e Tecnologia.


Le tesi accennate in questa sezione sono sostanzialmente riprese dal saggio di L. Russo [35], che ci sembra
illuminante ed al quale rimandiamo per un approfondimento delle questioni cui qui solamente accenniamo.
Forse paradossalmente, la concezione deduzionista ipotetico-deduttiva presentata nella sezione precedente è
probabilmente più antica di quella induttivista, risalendo, almeno, alla Scuola scientifico-tecnologica Ellenistica
del III sec. a.C. Questo è quanto sembra si possa concludere leggendo (insieme alle altre opere della stessa
Scuola che ci sono pervenute) Il Metodo di Archimede di Siracusa4 :

Archimede saluta Eratostene...... Vedendo in te quello che io considero uno studioso appassion-
ato ed un uomo eccellente in filosofia che tributa il dovuto onore alle investigazioni matematiche,
quando esse risultano necessarie, io ho pensato opportuno scriverti per spiegare in dettaglio la
peculiarità di un certo metodo, mediante il quale tu sarai in grado di cominciare a congetturare
teoremi riguardo gli oggetti matematici per mezzo della meccanica. Io sono persuaso che questo
metodo è altrettanto utile anche nella dimostrazione rigorosa (degli stessi teoremi che induce a
congetturare): perchè alcune cose mi furono chiare prima per mezzo della meccanica, sebbene
esse dovessero essere successivamente provate geometricamente, poichè il congetturare con questo
3 Uno studio approfondito dell’etimologia della parola teoria porterebbe il lettore a scoprire che essa ha radice comune con la

parola teatro. Suggestivamente si può affermare che secondo gli inventori greco-ellenisti della parola teoria lo scienziato che ne
formula una è uno spettatore del teatro dei fenomeni, ne osserva la sequenza e li sintetizza con metodi matematici.
4 L’unica copia del quale ci è pervenuta in maniera molto fortuita: nel 1906 Heiberg la scoprì fotografando un palinsesto di

preghiere della Chiesa Ortodossa ottenuto grattando via l’inchiostro per una trascrizione di molte opere Archimedee.
15.4. RELAZIONE FRA MATEMATICA, SCIENZA E TECNOLOGIA. 179

metodo non significa produrre una dimostrazione. D’altra parte è, naturalmente, molto più facile
fornire una dimostrazione quando una qualche conoscenza delle proprietà cercate sia stata ac-
quisita con questo metodo piuttosto che cercarla senza una conoscenza a priori. (segue il calcolo
dell’area sottesa da un arco di parabola utilizzando i risultati sull’equilibrio delle forze ottenuti
da Archimede nell’altra sua opera Sull’Equilibrio). I risultati appena ottenuti non sono stati, tut-
tavia, dimostrati rigorosamente: abbiamo solo una indicazione del fatto che essi sono veri. Perciò
noi consci che il teorema non è dimostrato ma solo sospettando che il risultato sia vero faremo
ricorso ad una prova geometrica, che io stesso ho scoperta e ho già pubblicata.

Con Colonnetti riteniamo Archimede un padre della fisica matematica5 e, per questo, possiamo sostenere,
con Boyer, che Archimede avrebbe potuto benissimo tenere un corso teorico di architettura navale (o di
Statica o di Meccanica delle Strutture o di Idraulica o di Costruzioni Idrauliche) e che, sebbene probabilmente
avrebbe preferito un corso di matematica pura, non era uno scienziato da tavolino (ma si può addirittura
negare che ne esistano): quando necessario era capace di mettere a frutto la sua capacità meccanica. Il
ruolo che sarebbe stato appropriato nel sistema universitario moderno per uno scienziato-tecnologo come lui
è chiarito dal testo tratto dal Manuale di Erone d’Alessandria riportato in quarta di copertina. In tutti i testi
Archimedei (si vedano i libri Sull’Equilibrio o Idrostatica) la mossa d’apertura è l’elenco degli oggetti e dei
teoremi matematici che costituiscono la prima riga dello schema (15.7) e solo successivamente ci si preoccupa
di stabilire le relazioni di morfismo fi necessarie a dare una interpretazione fisica del modello. Quindi si
può concludere che Archimede 1) distingueva bene il prototipo dal suo modello matematico 2) sapeva che la
dimostrazione matematica nell’ambito del modello di una certa proprietà è del tutto indipendente dal fatto
che la corrispondente proprietà sia verificata dal prototipo 3) accettava il metodo ipotetico-deduttivo.
Per l’importanza che a questo metodo veniva data da Archimede (e da tutta la scuola Ellenistica) per lo
studio di questioni tecniche si fa riferimento ancora una volta ad Erone: nella letteratura successiva l’accento
sulla priorità della formulazione matematica rispetto agli altri momenti dello sviluppo del modello è malinteso.
Seguendo gli empiristi alla Sesto Empirico si è ritenuto che Archimede e tutti gli scienziati Ellenistici disprez-
zassero le applicazioni, mentre essi ritenevano che l’approccio deduzionista fosse l’unico portatore di frutti
nelle applicazioni. Riteniamo che Lucio Russo abbia ragione quando sostiene che le seguenti affermazioni,
alcune delle quali sono accettate ora da una gran parte degli scienziati moderni e che facciamo nostre in toto,
si sarebbero potute sentire pronunciare da Archimede in una sua lezione:

1. La grande utilità della scienza esatta consiste nel fornire modelli del mondo reale all’interno dei quali
esiste un metodo garantito per distinguere le affermazioni vere da quelle false.
2. La scienza riesce a garantire la verità delle proprie affermazioni a patto di limitarle all’ambito di
applicazione dei modelli.
3. Tali modelli permettono di descrivere e prevedere fenomeni naturali ed hanno la possibilità di auto-
estendersi con il metodo dimostrativo e quindi divengono modelli di settori di attività tecnologica: la
loro predittività viene utilizzata per concepire dispositivi tecnologici nuovi.
4. La tecnologia scientifica caratterizzata dall’avvalersi di una progettazione effettuata all’interno di teorie
scientifiche appare intrinsecamente legata alla stessa struttura metodologica della scienza esatta e non
può che nascere da questa.
5. In nessuna società si è sviluppata una tecnologia in grado di produrre efficacemente apparati veramente
nuovi senza che questa tecnologia si sviluppasse e fosse sostenuta da un insieme di teorie scientifiche:
probabilmente la prima cultura in grado di sviluppare una tecnologia scientifica è stata quella ellenistica
(III-II sec.A.C.). Le conoscenze tecnologiche, prive del substrato scientifico di cui erano prodotto, furono
solo al più conservate in epoca romana e si dovè aspettare la seconda rivoluzione scientifica rinascimentale
per vedere nuovi sviluppi della scienza e di conseguenza della tecnologia.

5 Con un uso di questa espressione, forse non da tutti condiviso, intendiamo con fisica matematica quella parte della scienza

che si occupa di formulare modelli logico-deduttivi falsificabili per la descrizione di fenomeni fisici.
180 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI
Capitolo 16

CINEMATICA GALILEIANA

16.1 Introduzione.
In cinematica si descrivono l’insieme degli stati in cui un sistema si può trovare e l’insieme dei moti ad esso
consentiti 1 . D’altro canto la determinazione delle equazioni differenziali che permettono di prevedere il moto
di un sistema dato (cioè dell’evoluzione temporale del suo stato) è oggetto della dinamica. Parafrasando
Lagrange e D’Alembert: “l’evoluzione di un sistema percorre una successione di stati, che l’integrazione di un
opportuno sistema di equazioni differenziali consente di definire”.
La Meccanica dei Solidi e delle Strutture fornisce modelli matematici per lo studio dell’evoluzione temporale
dello stato dei sistemi di corpi in risposta ad assegnate interazioni con il mondo esterno: dunque nel suo ambito
giocano un ruolo rilevante considerazioni geometriche riguardo lo spazio fisico nel quale i corpi si piazzano e si
muovono. Tutte le cinematiche concepibili per un dato corpo avranno in comune la necessità di descrivere la
localizzazione spaziale di tutte le parti di materia che lo costituiscono: quindi la cinematica di un corpo dovrà
sempre almeno includere delle funzioni piazzamento che specifichino il posto in cui sono localizzate tutte le
particelle materiali che si assume lo costituiscano.

16.2 Particelle materiali ed osservatori.


Il modello di particella materiale (o sostanziale) è utilizzato per descrivere un corpo le cui dimensioni
sono trascurabili rispetto i) alle distanze che percorre nel suo moto e ii) a qualsiasi altra lunghezza rilevante
nei fenomeni che lo interessano. Il moto delle particelle materiali è solitamente riferito ad un osservatore.

Definizione 220 Si chiama osservatore O una funzione che associa ad ogni istante t e ad ogni particella
materiale P una terna rO,P (t) di numeri reali.

Un osservatore è quindi in grado di localizzare in ogni istante tutte le particelle materiali al cui moto
è interessato: la terna rO,P (t) caratterizza la traslazione fra l’origine2 O di O ed il posto dove si trova,
all’istante t, la particella P. Quando questo non causerà possibilità di confusione denoteremo tale traslazione
rP (t) tralasciando di specificare esplicitamente l’osservatore.
Si noti che grazie alla definizione appena introdotta è possibile, nella formulazione del modello particella
materiale, stabilire l’essenziale distinzione fra un corpo e la posizione che esso occupa. Come già notato da
D’Alembert la necessità di una tale distinzione è cruciale quando si voglia correttamente descrivere il moto:
purtroppo ancora oggi alcuni testi di meccanica risentono dell’influenza della scuola Cartesiana che la negava
sulla base di oscure ragioni metafisiche.
Più in generale un osservatore associa ad ogni evento e, che gli è dato di considerare, un istante di tempo
t ed una traslazione rO,e (t), che lo localizza.
Considerati i due eventi e1 ed e2 avvenuti all’istante t, l’osservatore O individuerà la traslazione rO,e1 ,e2 (t)
dall’evento e1 all’evento e2 per mezzo della relazione

rO,e1 ,e2 (t) = rO,e2 (t) − rO,e1 (t). (16.1)


1 Una discussione approfondita di questi concetti chiave nella scienza e nella tecnologia si può trovare alla voce Sistema

dell’Enciclopedia Einaudi 1981.


2 Si intende per origine O di un osservatore l’insieme degli eventi da lui localizzati con le coordinate (0, 0, 0).

181
182 CAPITOLO 16. CINEMATICA GALILEIANA

16.3 Cinematica galileiana.


Fissato un osservatore O chiameremo cambiamento di unità di misura una applicazione lineare non
degenere ΦO : IR3 → IR3 utilizzata per trasformare la terna rO,e , che localizza il generico evento e, nella terna
ΦO (rO,e ) .
In generale due osservatori distinti possono usare diverse unità di misura per valutare sia le distanze
spaziali fra i posti occupati dalle particelle materiali considerate che gli intervalli di tempo fra i diversi
fenomeni osservati.

Assioma 221 Della struttura euclidea dello spazio delle traslazioni. Ogni osservatore può scegliere
le terne di numeri reali che localizzano gli eventi considerati (cambiando opportunamente il suo sistema di
unità di misura) in modo che le distanze e gli angoli fra due traslazioni siano stimate utilizzando il prodotto
scalare euclideo in IR3 .

È concepibile che il moto relativo di due osservatori possa influenzare le loro misure della distanza spaziale
e di intervalli temporali. Quando si escluda questa possibilità, si è indotti a formulare il seguente assioma,
che caratterizza la cinematica galileiana:

Assioma 222 Della invarianza galileiana delle distanze e degli intervalli di tempo. Si consideri
una generica coppia di due osservatori. È sempre possibile che essi possano scegliere un insieme di unità
di misura comune (per mezzo di opportuni cambiamenti di unità di misura) per il quale le lunghezze e gli
angoli fra traslazioni corrispondenti agli stessi eventi, come da loro indipendentemente determinati, siano
coincidenti. Inoltre l’insieme degli eventi contemporanei per un osservatore risultano contemporanei anche
per l’altro.

Si noti che, nell’enunciato dell’assioma di invarianza appena enunciato, si ammette la possibilità per ogni
coppia di osservatori di stabilire quando alcuni fenomeni da loro indipendentemente osservati specifichino uno
stesso evento. Nessuno che speri di descrivere e prevedere fenomeni fisici può negare tale possibilità.
Per precisare come diversi osservatori misurano le lunghezze e gli angoli e stabilire come queste diverse
misure sono correlate fra loro è necessario richiamare alcuni dei risultati di algebra lineare esposti precedente-
mente: infatti dai due enunciati assiomi, dalla proposizione 103, Parte I e dalle considerazioni svolte all’inizio
della sezione 13.10 è immediato dimostrare la seguente altra:

Proposizione 223 Della legge di trasformazione galileiana delle traslazioni per cambiamento di
osservatore. Si assuma che i due osservatori O1 ed O2 abbiano scelto un insieme di unità di misura comune
la cui esistenza è postulata nell’assioma 222. Dette r1 ed r2 le terne di numeri reali che localizzano un
(O)
medesimo evento e relativamente ai due osservatori O1 ed O2 e detta r12 la traslazione dall’origine di O1
all’origine di O2 come determinato da O1 all’istante t, allora esiste una matrice 3 × 3 ortogonale M12 tale
che si ha:
(O)
r1 = M12 r2 + r12 . (16.2)

Dimostrazione Consideriamo l’applicazione

M12 : IR3 → IR3 , (16.3)

che associa la traslazione r2 dall’origine di O2 , che localizza e rispetto all’osservatore O2 , alla traslazione r1 −
(O)
r12 sempre dall’origine di O2 , che però localizza e rispetto all’osservatore O1 . Per l’assioma 222 l’applicazione
M12 conserva il prodotto scalare euclideo. Quindi per la proposizione 103, Parte I, tale applicazione è lineare e
rappresentata univocamente da una matrice ortogonale nella base naturale di IR3 (si tenga presente l’assioma
(O)
221), che abbiamo denotata con il simbolo M12 . Come la traslazione r12 anche la matrice M12 può dipendere
dall’istante t.
La dimostrazione della seguente proposizione è banale:

Proposizione 224 Nelle ipotesi della proposizione precedente e tenendo conto della definizione (16.1) si ha

rO1 ,e1 ,e2 (t) = M12 (t)rO2 ,e1 ,e2 (t) (16.4)

Dati due osservatori O1 ed O2 la matrice ortogonale M12 la cui esistenza è stata appena dimostrata è detta
matrice di trasformazione delle traslazioni come misurate dall’osservatore O1 nelle traslazioni
come misurate da O2 .
Gli assiomi appena introdotti sono conformi ad un principio di ben più vasta portata, guida alla formu-
lazione di ogni teoria meccanica. Ci riferiamo al principio di relatività galileiana. Tale principio stabilisce
16.4. SPAZIO ASSOLUTO DELLE POSIZIONI. 183

che le leggi della fisica devono essere formulate in modo che nessun osservatore abbia un ruolo privilegiato.
Taluni, confusi dal tentativo di assiomatizzazione della meccanica dovuto a Mach,3 restringono il principio di
relatività galileiana ai cosiddetti osservatori (o sistemi) inerziali: seguendo le più moderne assiomatizzazioni4
assumiamo, invece, che la sua validità sia generale. Un osservatore inerziale deve essere definito semplice-
mente come un osservatore per cui la forza d’inerzia di una particella materiale è uguale alla sua massa per la
sua accelerazione, mentre un osservatore non inerziale osserva una forza d’inerzia in cui appaiono anche i
termini correttivi di Coriolis, di accelerazione centripeta e di accelerazione complementare.

16.4 Spazio assoluto delle posizioni.


Nell’ambito della cinematica galileiana, grazie agli assiomi introdotti ed alla proposizione 223, è possibile
definire lo spazio assoluto delle posizioni, concetto fondamentale in tutta la meccanica classica.
Chiameremo posizione o posto assoluto la classe di equivalenza di tutte le coppie (O, rO,e ) che ad un
dato istante t siano fra loro nella relazione specificata dalla (16.2). L’insieme di tutte tali posizioni, indicato
con P, sarà chiamato spazio assoluto delle posizioni. Chiameremo vettore traslazione assoluta la
classe di equivalenza di tutte le coppie (O, rO,e1 ,e2 ) che ad un dato istante t siano fra loro nella relazione
specificata dalla (16.4). L’insieme di tutti tali vettori traslazione, indicato con T P è chiamato spazio delle
traslazioni assolute. Dato un posto assoluto (risp. un vettore traslazione assoluta) e fissato un osservatore
O, le corrispondenti terne rO,e (risp. rO,e1 ,e2 ) sono dette coordinate del posto (risp. del vettore traslazione)
relativamente ad O.
La somma di due vettori traslazione, il prodotto di un vettore di traslazione per uno scalare, il prodotto
scalare fra due vettori di traslazione, il punto somma di un posto ed un vettore ed il vettore differenza fra
posti sono definiti (univocamente grazie alle (16.2) e (16.4)) a partire dalle corrispondenti operazioni sulle
componenti rispetto ad un osservatore.
È semplice dimostrare, utilizzando le proprietà di spazio vettoriale euclideo di IR3 , la seguente:

Proposizione 225 L’insieme di tutti i vettori traslazione T P è munito di struttura di spazio vettoriale. Lo
spazio delle posizioni P della meccanica classica è uno spazio puntuale affine euclideo tridimensionale5 il cui
spazio delle traslazioni è lo spazio vettoriale T P.

Lo spazio P è il modello matematico dello spazio fisico dove si trovano e si muovono i corpi: esso è
caratterizzato come un insieme di punti, detti posti, e di vettori, detti traslazioni. Una traslazione porta da
un posto ad un altro ed ogni posto è raggiungibile a partire da un generico altro posto per mezzo di una
traslazione.
È istruttivo notare che la seguenti proposizioni sono banale conseguenza delle definizioni ed assiomi
introdotti:

Proposizione 226 Fissato un sistema di unità di misura che verifichi le condizioni specificate nell’assioma
222 ad ogni osservatore O può essere associata ad ogni istante t la coppia (O(t), {ei (t)}) , dove O(t)∈ P è il
posto occupato all’istante t dalla sua origine ed {ei (t)} è una base ortonormale di T P , detta base di O, tale
che la terna rO,e (t) rappresenta l’insieme delle componenti del vettore traslazione assoluto dall’origine di O
al posto dove avviene e.

Proposizione 227 Siano O1 ed O2 due osservatori le cui unità di misura verifichino le condizioni specificate
nell’assioma 222. Nello spazio vettoriale T P l’applicazione QO
O1 che porta i vettori di base di O2 nei vettori
2

di base di O1 è un tensore doppio ortogonale.

Si ricorda che ogni operatore ortogonale conserva il prodotto scalare dei vettori cui è applicato. Quindi
l’applicazione di un operatore ortogonale conserva la lunghezza e l’angolo fra i vettori.
Se consideriamo una particella materiale P in moto in P, che occupa all’istante t la posizione x(t), si dice
vettore posizione di P rispetto all’origine di O quel vettore che ha come componenti nella base {ei (t)} la
terna rP (t).
3 Per una più dettagliata discussione sulla inconsistenza della Assiomatica di Mach rimandiamo il lettore al Capitolo 18.

Notiamo esplicitamente qui che non è possibile introdurre una assiomatica per la meccanica in cui sia possibile definire il concetto
di forza in termini di concetti primitivi puramente cinematici.
4 Formulate in Salençon [36] o in Noll [30].
5 Uno studio dettagliato degli spazi puntuali affini si può trovare nel Capitolo 14.
184 CAPITOLO 16. CINEMATICA GALILEIANA

16.5 Lo spazio delle configurazioni come modello dell’insieme degli


stati.
Nel formulare un modello matematico del comportamento di un dato sistema fisico si comincia sempre speci-
ficandone la cinematica. In questo modo si delimita con precisione l’ambito di applicabilità ed il grado di
accuratezza del modello proposto. Questa accuratezza è determinata dalla definizione matematica dello spazio
delle configurazioni che è modello dell’insieme degli stati nei quali il sistema si può trovare. Ogni stato fisico
è così caratterizzato dalle proprietà che si credano rilevanti nei fenomeni da descrivere.
Esempio 228 Consideriamo ad esempio l’oggetto fisico calamita di piccolo diametro e l’insieme dei suoi stati
fisici. In assenza di campi magnetici ci si può limitare a caratterizzarne lo stato per mezzo delle coordinate
spaziali del suo baricentro: accettando questa limitazione l’insieme spazio delle configurazioni scelto è lo spazio
IR3 . Se siamo, invece, interessati a studiare il comportamento della stessa calamita anche quando essa sia
immersa in un campo magnetico allora il modello di particella materiale è inadeguato e lo stato fisico della
calamita deve essere descritto più dettagliatamente aggiungendo, come descrittore cinematico, l’orientazione
del suo versore nord-sud (che è anche chiamato versore di spin). Infatti è impossibile descriverne (e quindi
prevederne correttamente) il comportamento senza questa ulteriore specificazione: bisogna introdurre il modello
matematico “particella con spin” il cui spazio delle configurazioni è IR3 × S 2 , dove S 2 è l’insieme dei possibili
spin, cioè la sfera unitaria immersa in IR3 .
Le considerazioni precedenti ci inducono ad affermare che forse il momento più importante nella costruzione
di un modello risiede proprio nella caratterizzazione della sua cinematica, cioè nella specificazione dello spazio
delle configurazioni che si vuole utilizzare nel suo ambito. Solo successivamente si introducono le equazioni di
evoluzione per gli introdotti parametri cinematici, specificando la dinamica del modello.
Non si pensi che questa strategia di costruzione di modelli matematici sia utile solo nella meccanica delle
strutture: la teoria dei sistemi dinamici è stata sviluppata generalizzando il formalismo matematico introdotto
da Lagrange per la meccanica allo studio di una più ampia classe di fenomeni fisici6 : per esempio Walras e
Pareto la hanno utilizzata per descrivere il mercato e più in generale i sistemi economici, Gibbs i fenomeni
termodinamici, Bertalanffy gli organismi viventi.
Un medesimo ente fisico, a seconda di quale aspetto del suo comportamento si ritenga opportuno modellare,
può essere descritto cinematicamente nei modi più disparati.
Esempio 229 Come esempio della molteplicità di modelli matematici che possono essere utilmente introdotti
per uno stesso oggetto fisico si ricorderà che la Terra è modellata come i) particella materiale, se si vuole
studiare il suo moto sotto l’azione gravitazionale del Sole, ii) corpo rigido a forma di sfera schiacciata, se si
vuole descrivere l’alternarsi delle stagioni e i correlati fenomeni di flusso di materia nell’atmosfera e negli
oceani, iii) solido elastico deformabile, se si è interessati alla descrizione dei fenomeni di propagazione delle
onde sismiche.

16.6 Spazi delle configurazioni finito od infinito dimensionali.


Passiamo ora a vedere quali sono alcune delle proprietà fondamentali dei modelli matematici utilizzati per
descrivere l’insieme degli stati di un sistema. Poichè questo capitolo è dedicato allo studio della cinematica
dei continui considereremo quasi esclusivamente esempi in cui un opportuno spazio delle configurazioni è
introdotto per modellare l’insieme degli stati di sistemi di corpi.
Lo spazio delle configurazioni è un insieme di enti matematici che viene introdotto come modello dello
spazio degli stati di un dato sistema fisico.
Le proprietà generali di cui deve godere uno spazio delle configurazioni sono state oggetto di profonde
e fruttuose ricerche, iniziate dalle idee di Henri Poincarè. Il lettore interessato troverà in Arnold [2] una
trattazione completa (ma abbastanza impegnativa) delle teorie che ne sono scaturite. In questa sezione ci
limitiamo a distinguere gli spazi delle configurazioni finito-dimensionali da quelli infinito-dimensionali.
Esempio 230 Il modello di particella materiale si basa sulla specificazione di uno spazio delle configurazioni
finito dimensionale: tre parametri reali caratterizzano univocamente la configurazione di una particella mate-
riale. Per introdurre un esempio di spazio delle configurazioni infinito dimensionale consideriamo il modello
di D’Alembert della corda elastica. Dato un segmento (0, ) , dove rappresenta la lunghezza della corda in
una configurazione di confronto, si introduce lo spazio
M := C 0 (0, ) × C 0 (0, ) × C 0 (0, ) ,
6 Intendiamo quindi per sistema fisico un qualsiasi sistema che sarebbe stato descritto nella ϕυσικὴ aristotelica.
16.6. SPAZI DELLE CONFIGURAZIONI FINITO OD INFINITO DIMENSIONALI. 185

delle terne di funzioni continue definite sull’intervallo (0, ). Gli elementi di M sono i campi degli spostamenti
delle particelle materiali costituenti la corda, essendo tali spostamenti rappresentati in un fissato sistema di
coordinate. Quindi la configurazione di una corda è specificata da tre campi scalari.

16.6.1 Modelli finito-dimensionali: descrizioni con un numero finito di gradi di


libertà.
Cominciamo con il caratterizzare una prima classe di modelli matematici: quelli in cui lo spazio delle configu-
razioni che modella (o caratterizza nell’ambito delle approssimazioni su cui si basa il processo di modellazione)
l’insieme degli stati del sistema studiato è finito-dimensionale.
Si supponga che, in un modello matematico, lo spazio delle configurazioni sia rappresentabile come l’u-
nione di insiemi ciascuno in corrispondenza biunivoca con IRn . In questo caso si dirà che il modello è finito
dimensionale ed i suoi gradi di libertà sono n.
Al fine di chiarire tale affermazione, faremo riferimento ad una lista di esempi alcuni dei quali dovrebbero
essere già noti al lettore.

• Circuito : Lo stato del sistema circuito elettrico può caratterizzarsi specificando le correnti che scorrono
attraverso i suoi rami e con le tensioni misurate ai capi di ciascun suo elemento.

• Punto materiale nello spazio: Dato un sistema di riferimento, la configurazione di un punto materiale
sarà definita dalle tre coordinate spaziali (x, y, z) che caratterizzano la sua posizione. Lo spazio delle
configurazioni è quindi IR3 .

• Gas perfetto: Lo stato di un gas perfetto in condizioni di equilibrio è caratterizzato quando siano noti la
sua pressione e la sua temperatura (la sua densità risulterà allora determinata dall’equazione di stato):
lo spazio delle configurazioni è quindi IR+ × IR+ .

• Pendolo semplice piano: La sua configurazione è caratterizzata dall’angolo formato dalla retta passante
per il baricentro ed il punto di sospensione con la verticale. Lo spazio delle configurazioni è S 1 , cioè il
cerchio unitario immerso in IR2 .

• Modello di Walras-Pareto di un mercato in libero scambio: Si assume caratterizzato lo stato di tale


sistema economico quando siano noti i prezzi e la quantità offerta e domandata di ogni bene scambiato.
Se i beni scambiati nel mercato sono n, lo spazio delle configurazioni sarà IRn+ × IR2n+ . Per maggiori
dettagli il lettore interessato può consultare Arrow-Intriligator (1984).

• Modello di Volterra della lotta per la vita fra predatore-preda: In questo caso la configurazione è ca-
ratterizzata dalla consistenza numerica delle popolazioni di predatori e di prede presenti in una data
area geografica. Se le specie di predatori (risp. di prede) da considerare sono p (risp. q) lo spazio delle
configurazioni sarà IRp+ × IRq+ .

• Continuo rigido: Lo spazio delle configurazioni di tale sistema, è descritto nei prossimi paragrafi.

• Struttura reticolare di travi: Tale sistema è descritto in un successivo capitolo. Il suo stato è caratte-
rizzato dalla lunghezza di ogni trave che lo costituisce (per definizione di struttura reticolare nessuna di
tali travi si può flettere). Se N è il numero di travi costituente la struttura lo spazio delle configurazioni
è IRN+ .

Si noti che in generale lo spazio delle configurazioni non può essere messo globalmente in corrispondenza
biunivoca con IRn . Infatti gia’ nel caso del pendolo piano appena discusso lo spazio delle configurazioni
è un cerchio in IR2 per il quale non esiste una corrispondenza biunivoca e bicontinua con IR1 . Il lettore
interessato a maggiori dettagli riguardo la definizione matematicamente precisa degli spazi delle configurazioni
finito-dimensionali potrà trovarla nel Capitolo 22.

16.6.2 Modelli infinito-dimensionali: descrizioni con infiniti gradi di libertà.


Tuttavia in molti casi i sistemi da descrivere presentano un comportamento che rende inappropriata l’intro-
duzione di modelli finito-dimensionali. Talvolta una modellazione finito dimensionale non è sufficientemente
ricca, mentre in altri casi risulta che i problemi matematici da risolvere nella descrizione di un dato sistema
se si utilizza un modello infinito-dimensionale sono più semplici rispetto a quelli che si presentano se si con-
sidera un modello finito-dimensionale sufficientemente descrittivo. Questa circostanza è molto meno strana
di quanto si possa immaginare: l’evoluzione temporale dello stato di una trave reticolare costituita da n aste
186 CAPITOLO 16. CINEMATICA GALILEIANA

modellata come sistema finito-dimensionale può essere studiata soltanto risolvendo un sistema di n equazioni
differenziali ordinarie; tuttavia introducendo per la stessa struttura il modello di trave di Bernoulli-Navier
(o al più di trave di Timoshenko), che è infinito-dimensionale, una buona conoscenza del comportamento del
sistema può ottenersi risolvendo un sistema (più agevole) di tre equazioni differenziali a derivate parziali.
Un modello matematico è infinito-dimensionale quando utilizza come spazio delle configurazioni uno
spazio funzionale infinito-dimensionale, cioè un insieme di campi scalari, vettoriali o tensoriali (si veda la
sezione 14.3).
Uno stesso sistema può essere descritto, a seconda delle situazioni fisiche da considerare e delle capacità
di calcolo di cui si dispone, sia con modelli infinito-dimensionali che con modelli finito-dimensionali. Con-
seguentemente è importante distinguere fra i concetti di sistema e insieme degli stati, che sono enti del mondo
fisico, e quelli di modello e spazio delle configurazioni, che sono enti matematici. Tale distinzione sarà sot-
tolineata usando, quando necessario, nomi diversi per gli enti fisici ed i loro modelli matematici. Tuttavia,
mano a mano che svilupperemo la discussione, questa distinzione, come in un abuso di notazione, non sarà
sempre rimarcata, per rendere l’esposizione meno faticosa: il lettore, a quel punto, dovrebbe essere in grado
di ristabilirla, nella sua mente, quando lo ritenga necessario.
Di seguito il lettore troverà una lista di esempi di sistemi infinito-dimensionali:

• Trave di Bernoulli-Navier indeformabile al taglio: Nella teoria della trave di Bernoulli-Navier lo stato
del sistema è caratterizzato quando siano note i) la configurazione di confronto della trave, data da una
curva γ 0 di lunghezza L nello spazio euclideo tridimensionale, ii) il campo degli spostamenti che associa
ad ogni particella materiale della trave il suo vettore spostamento dalla configurazione di confronto a
quella attuale. Lo spazio delle configurazioni coincide con lo spazio M introdotto per la corda elastica.
• Linea di trasmissione elettrica: Lo stato del sistema è caratterizzato dal campo potenziale elettrico
lungo la linea.
• Campi elettromagnetici in sistemi dielettrici: Lo stato di un corpo dielettrico rigido è caratterizzato
quando siano noti il campo elettrico e quello di polarizzazione elettrica.
• Corpo rigido conduttore di calore: Per caratterizzarne lo stato bisogna conoscerne la temperatura in
ogni suo punto.
• Piastra di Kirchhoff-Love: Lo stato del sistema è caratterizzato dal campo degli spostamenti dalla
configurazione di confronto (che è una parte regolare di un piano) a quella attuale (che è una superficie
regolare).

16.7 Continui come modelli di corpi: cinematica.


Nella Meccanica delle Strutture sono introdotti modelli per descrivere fenomeni in cui le cui dimensioni e le
deformazioni dei corpi giocano un ruolo rilevante e quindi ai nostri fini il modello di particella materiale risulta
inadeguato.

16.7.1 Configurazioni di un continuo.


Introduciamo ora un modello che presenti una struttura più ricca.
Un continuo B è un insieme di punti sostanziali che occupa regioni regolari dello spazio assoluto delle
posizioni P. A seconda della sua estensione spaziale, e cioè se la dimensione delle regioni di P che occupa
è tre, due oppure uno, un continuo può essere classificato in: continuo tridimensionale, bidimensionale
o monodimensionale. La regione (cfr sezione 14.3) di P occupata da B è detta forma di B. Le forme
di un continuo bidimensionale sono superfici regolari a tratti immerse in P, di area non nulla. Le forme di
un continuo monodimensionale sono curve regolari a tratti immerse in P, di lunghezza non nulla. Infine le
forme di un continuo tridimensionale sono chiusure di aperti in P di volume non nullo, la cui frontiera è una
superficie generalmente regolare, cioè dotata di un piano tangente dappertutto tranne che in un numero finito
di curve regolari dette spigoli.
Un dato corpo può essere modellato come continuo tridimensionale, bidimensionale o monodimensionale
a seconda della accuratezza richiesta alla descrizione introdotta. Per esempio consideriamo un blocco B di
materiale che in assenza di azioni del mondo esterno abbia la forma di un cilindro a sezione rettangolare:
questo significa che in tale situazione l’insieme dei posti occupati dalle sue particelle materiali può riguardarsi
come il prodotto cartesiano I1 × I2 × I3 di tre intervalli rispettivamente di lunghezza 1 ≤ 2 ≤ 3 . Se le azioni
esterne applicate al cilindro determinano delle importanti deformazioni delle sezioni I1 ×I2 , e tali deformazioni
16.7. CONTINUI COME MODELLI DI CORPI: CINEMATICA. 187

influenzano in maniera rilevante il comportamento meccanico del blocco, allora sarà necessario modellarlo
come continuo tridimensionale. Se 1 ≈ 2 << 3 e se le deformazioni delle citate sezioni non influenzano in
maniera rilevante la forma assunta dall’asse di B sotto l’azione di specificate azioni esterne allora B potrà
essere modellato con sufficiente precisione come continuo monodimensionale. Se infine 1 << 2 ≈ 3 e se le
deformazioni dei segmenti di lunghezza 1 hanno una influenza trascurabile sulla forma assunta dall’insieme
delle particelle materiali I2 × I3 allora B potrà essere modellato come continuo bidimensionale.
La specificazione della posizione di tutti i punti sostanziali di un continuo B ne determina una configu-
razione. Talvolta risulta utile identificare le particelle materiali di B, in tutte le altre configurazioni possibili,
etichettandole con la posizione occupata in una specifica configurazione, detta configurazione di confronto
(o di riferimento).
Si noti che la configurazione di confronto introdotta per identificare le particelle sostanziali di B al fine di
descriverne un moto non deve necessariamente essere una configurazione assunta durante quel moto.
Il moto delle particelle materiali di un dato continuo B è specificato determinando la successione
temporale delle posizioni che esse assumono.
Anche nello sviluppare il modello continuo è importante saper distinguere il concetto di particella materiale
e quello di posizione da essa occupata in una data configurazione. L’identificazione di ciascuna particella
materiale con la posizione che essa occupa in una configurazione di confronto permette una efficace descrizione
matematica del moto, ma non deve generare confusione. Una data particella materiale durante il suo moto
occupa, in generale, diverse posizioni.

16.7.2 Funzione piazzamento, campi di velocità di un continuo.


Le definizioni che seguono sono valide per tutti i tipi di continuo introdotti.
La seguente definizione utilizza funzioni definite ed a valori in regioni dello spazio puntuale euclideo
tridimensionale al fine di introdurre il modello di Cauchy per la forma spaziale di corpi estesi.
Fissata una configurazione di confronto C ∗ del continuo B definiamo funzione piazzamento all’istante
t:
χt : XP ∈ C ∗ 7−→ xP = χt (XP ) ∈ P, (16.5)
la funzione che associa al posto XP occupato dal generico punto P di B nella configurazione di confronto, la
posizione xP che P occupa in un dato istante t. Assumeremo che la funzione χt sia invertibile e differenziabile
e che la dimensione di C ∗ e delle sue parti non vari sotto l’azione di χt : più precisamente ogni parte di C ∗
rispettivamente di volume, di area, di lunghezza, non nulli si piazza, ad ogni istante, in un insieme di posti
di volume, di area, di lunghezza, non nulli. La funzione χt specifica la configurazione attuale di B cioè la
sua configurazione ad un certo istante t.
In alcuni notevoli fenomeni gioca un ruolo importante la variazione finita di configurazione del continuo
considerato.
Definiamo spostamento da una configurazione ad un’altra il campo vettoriale u che fa corrispondere
al posto occupato da ogni particella sostanziale P nella prima configurazione la traslazione verso il posto
occupato nella seconda dalla stessa P . Lo spostamento dalla configurazione di confronto alla configurazione
attuale è dato da:
u :XP ∈ C ∗ 7−→ u(XP , t) = xP − XP = χt (XP ) − XP . (16.6)
Il campo introdotto rappresenta l’insieme delle traslazioni che fanno passare B dalla sua configurazione di
confronto a quella che occupa all’istante t.
Una particella materiale di B verrà identificata, d’ora in poi, con la sua posizione XP nella configurazione
di confronto C ∗ : il pedice P utilizzato nelle precedenti equazioni sarà omesso quando sarà possibile farlo senza
ambiguità.
È ancora più spesso necessario considerare variazioni infinitesimali di configurazione di un continuo.
La derivata parziale rispetto al tempo del campo (16.6), ottenuta tenendo fissata la particella materiale
di B, e cioè la variabile X, è detta campo di velocità materiale (o lagrangiana)
¯
∂u (X, ·) ¯¯
vL :X∈ C ∗ 7−→ vL (X, t) = ¯ , (16.7)
∂t t

Questo campo associa alla variabile X la velocità, all’istante t, della particella materiale corrispondente. Si noti
che X non è il posto occupato all’istante t dalla particella ma il posto da essa occupato nella configurazione
di confronto.
Il campo di velocità appena introdotto è definito nella configurazione di confronto del continuo considerato:
è talvolta utile spostare questo campo sulla configurazione attuale.
188 CAPITOLO 16. CINEMATICA GALILEIANA

Chiamiamo campo di velocità spaziale (o euleriana) v il campo definito, nella forma attuale χt (C ∗ )
per mezzo della formula (si ricordi che χt si è assunta invertibile e quindi X = χ−1
t (x)):

v :x∈χt (C ∗ )7−→ v(x, t) := vL (χ−1


t (x), t). (16.8)

Questo campo associa al posto x appartenente alla configurazione assunta all’istante t dal corpo B la velocità
della particella materiale che si trova a passare in x all’istante t.

16.7.3 Descrittori di stato in un continuo. Descrizione lagrangiana o euleriana.


I continui sono utilizzati come modello matematico per la descrizione di molti sistemi fisici: corpi tridimen-
sionali rigidi o deformabili, corpi piezoelettrici deformabili e conduttori di calore, membrane, piastre e gusci,
travi, fluidi compressibili o incompressibili, matrici solide deformabili sature di fluidi, cristalli liquidi, sospen-
sioni solide in fluidi compressibili, ammassi stellari, strutture ossee, masse d’acqua oceaniche, perturbazioni
atmosferiche.....
Per ottenere una tale descrizione bisogna talvolta specificare ulteriormente la cinematica del continuo B,
aggiungendo ulteriori dettagli alla descrizione ottenuta per mezzo della variazione nel tempo della funzione
piazzamento, che descrive semplicemente la forma di B e la collocazione spaziale dei suoi punti materiali.
Questa specificazione si completa caratterizzando le proprietà di interesse nei fenomeni considerati per
mezzo di campi scalari, vettoriali o tensoriali definiti nelle forme di B : chiameremo tali campi descrittori
di stato.
Per esempio se la massa inerziale del corpo gioca un ruolo rilevante nel fenomeno considerato, dovrà essere
introdotto, in ogni configurazione di B, il campo densità di massa. Se invece il corpo è un dielettrico dovrà
essere introdotto il campo vettoriale spostamento elettrico, mentre se è un conduttore di calore il campo
temperatura.
Ad ogni corpo B, e ad ogni sua parte, deve essere associata una massa. Assumeremo che ad un continuo
tridimensionale, bidimensionale e monodimensionale sia associata una densità di massa, rispettivamente,
di volume, di superficie e di linea. In formule:

• se B è esteso tridimensionalmente e V è una sua forma:


Z
m(B) = V dV, (16.9)
V

dove V è la corrispondente densità di massa di volume;

• se B è esteso bidimensionalmente ed S è una sua forma:


Z
m(B) = S dS, (16.10)
S

dove S è la corrispondente densità di massa di superficie;

• se B è esteso monodimensionalmente ed è una sua forma:


Z
m(B) = d , (16.11)

dove è la corrispondente densità di massa di linea.

A seconda delle applicazioni considerate, nello studio del moto dei continui sono utilizzati due approcci
differenti.
Diremo che per la cinematica di B è stata introdotta una descrizione materiale o lagrangiana se si
specifica il moto per mezzo di una funzione piazzamento rispetto ad una data configurazione di confronto, e si
definiscono tutti i campi descrittori di stato nel dominio C ∗ . Diremo invece che è utilizzata una descrizione
spaziale o euleriana se si specifica il moto attraverso il campo di velocità euleriano ad ogni istante t in
χt (C ∗ ) e se anche tutti gli altri campi descrittori di stato sono definiti in ogni istante t in χt (C ∗ ).
Di solito nella meccanica dei solidi si preferisce l’utilizzo della descrizione materiale o lagrangiana: il
vantaggio di una tale descrizione risiede nel fatto che i descrittori cinematici sono dei campi definiti in un
dominio indipendente dal tempo, cioè la forma di confronto. Tentare una descrizione spaziale o euleriana del
moto di un continuo B modello di corpo solido deformabile richiede la capacità di determinare l’evoluzione
di campi il cui dominio, coincidendo con l’insieme dei posti occupati da B, varia nel tempo.
16.7. CONTINUI COME MODELLI DI CORPI: CINEMATICA. 189

Tuttavia nella meccanica dei fluidi non si vuole seguire l’evoluzione nel tempo della posizione di particelle
materiali. Infatti in questo contesto spesso ci si pone il problema di studiare il campo di velocità, densità e
pressione in una data regione dello spazio P in cui un fluido si trova a scorrere. In questo caso è opportuna
una descrizione spaziale o euleriana del moto. Tentare una descrizione materiale o lagrangiana del flusso di un
fluido in una regione assegnata dello spazio richiede la capacità di determinare l’evoluzione di campi definiti
su insiemi di particelle materiali che variano nel tempo.
Si noterà tuttavia che è inevitabile, anche in meccanica dei fluidi, l’introduzione della descrizione materiale,
non essendo possibile altrimenti la cruciale definizione (16.7) che è preliminare alla (16.8).
Per illustrare i concetti appena introdotti, diamo prima alcuni esempi di campi utilizzati nella descrizione
materiale o lagrangiana.

• La funzione piazzamento: poichè tale funzione, precedentemente introdotta, associa alla posizione X
nella configurazione di confronto la posizione corrente x della particella materiale che nella configurazione
di confronto si trovava in X
x(X, t) := χt (X) = X + u(X, t), (16.12)
essa è caratteristica della descrizione lagrangiana del moto.
• I campi gradiente di spostamento e di deformazione (rispetto alla configurazione di confronto) di un
continuo tridimensionale
H := Gradu, F := Gradχt = 1I + H, (16.13)
dove Grad denota il gradiente rispetto la variabile X ed 1I il tensore identità nello spazio Hom (T P, T P) .
Per una trattazione adeguata dei campi appena introdotti si rimanda al capitolo successivo.
• Il campo di temperatura delle particelle materiali di B

ϑ : (X, t) 7→ ϑ(X, t) ∈ IR+ ,

che associa alla posizione nella configurazione di confronto di una particella materiale la sua temperatura
all’istante t.
• Il campo densità di carica di polarizzazione in un continuo dielettrico

ρP : X 7→ ρP (X, t) ∈ IR+ , (16.14)

che associa alla posizione nella configurazione di confronto di una particella materiale la sua densità di
carica di polarizzazione all’istante t.

Quelli che seguono sono invece esempi di campi utilizzati nella descrizione spaziale o euleriana, essendo il
loro insieme di definizione χt (C ∗ ), l’insieme dei posti occupati da B all’istante t.

• Lo spostamento relativo di una stessa particella sostanziale fra le configurazioni agli istanti t e t + ∆t è
dato da:
uR : x ∈ χt (C ∗ ) 7→ uR (x, t, ∆t) = χt+∆t (χ−1
t (x)) − x. (16.15)
Il vettore euleriano uR (x, t, ∆t) rappresenta la traslazione fra il posto x ed il posto occupato all’istante
t + ∆t dalla particella materiale che si trovava in x all’istante t.
• Considerando gli istanti nell’intervallo [t, t + ∆t] è facile vedere che il campo di velocità spaziale o
euleriano definito nella (16.8) è dato anche dal limite:

uR (x, t, ∆t)
v(x, t) = lim . (16.16)
∆t→0 ∆t

• Il campo densità di massa nella configurazione attuale di un corpo esteso tridimensionalmente è dato
dalla
: x ∈ χt (C ∗ ) 7→ (x) ∈ IR+ . (16.17)
Questo campo rappresenta la densità di massa della particella materiale che all’istante t si trova nel
posto x.
• Il campo densità euleriana di carica di polarizzazione in un continuo dielettrico

ρP : x ∈ χt (C ∗ ) 7→ ρP (x) ∈ IR+ . (16.18)


190 CAPITOLO 16. CINEMATICA GALILEIANA

• Il campo densità di corrente in un continuo conduttore

i : x ∈ χt (C ∗ ) 7→ i(x) ∈ T P,

che permette di rappresentare il flusso di carica attraverso una superficie euleriana Σ per mezzo della
formula Z
ΦQ = i(x) · ndA (16.19)
Σ

dove n è la normale alla superficie Σ.

Si noti che i continui, la cui cinematica è stata discussa in questa sezione, possono essere modelli sia finito
che infinito dimensionali. Infatti i campi che abbiamo fin qui introdotti possono essere, quando opportune
ipotesi siano fondate, completamente specificati per mezzo di un numero finito di parametri. La sezione
seguente darà un primo esempio di sistema continuo per cui questa circostanza è verificata.

16.8 Un caso notevole: continui rigidi.


Scelto un generico osservatore O si consideri un continuo B, una sua configurazione di confronto C ∗ , ed un suo
piazzamento χt . Si denoteranno rispettivamente con rO (XP ) ed rO (xP ) le componenti dei vettori posizione
della particella P nelle configurazioni C ∗ e χt (C ∗ ) rispetto ad O. Quando ciò non comporti ambiguità il pedice
O sarà omesso.

16.8.1 Piazzamento rigido.


Si chiama piazzamento rigido di un continuo B, rispetto all’osservatore O e rispetto ad una sua assegnata
configurazione di confronto C ∗ , un piazzamento χt che verifichi la seguente condizione:

∀ (P1 , P2 ) ∈ B × B e ∀t, d (rO (xP1 ) , rO (xP2 )) = d (rO (XP1 ) , rO (XP2 )) , (16.20)

dove d denota la distanza euclidea fra posti come valutata da O.


Nell’insieme di tutti i piazzamenti possibili di un dato continuo la definizione precedente seleziona una
particolare sottoclasse, quella dei piazzamenti che non deformano la configurazione di confronto nel passaggio
ad una configurazione attuale.
Semplici considerazioni di geometria euclidea permettono la dimostrazione della seguente:

Proposizione 231 Consideriamo una particella materiale o del continuo B ed i segmenti orientati di parti-
celle materiali di estremità rO (Xo ) e rO (XP ) . L’applicazione N : IR3 → IR3 che associa alla terna di numeri
reali rO (XP ) − rO (Xo ) la terna rO (xP ) − rO (xo ) conserva il prodotto scalare euclideo. Quindi N risulta
lineare ed ortogonale.

In altre parole (come fu notato già da Eulero) l’applicazione che porta i vettori di particelle materiali (cioè
i segmenti orientati di particelle materiali, come individuate dalla posizione nella configurazione di confronto
che chiameremo brevemente vettori materiali) nei vettori posizione euleriana (cioè i segmenti formati dai
posti occupati dalle particelle materiali nella configurazione attuale, che chiameremo brevemente vettori
posizione) è una applicazione lineare che conserva angoli e lunghezze.
Chiameremo rotazioni quelle applicazioni lineari ortogonali il cui determinante è pari ad uno.
Poichè ovviamente i corpi di cui i continui tridimensionali sono modello non possono rivoltarsi come guanti
si ha la seguente:

Proposizione 232 L’applicazione N : IR3 → IR3 della proposizione precedente, quando si considerino con-
tinui tridimensionali, è una rotazione di IR3 in IR3 .

Vale infine la seguente

Proposizione 233 Se un piazzamento di un corpo è rigido rispetto ad un osservatore è tale anche rispetto a
tutti gli altri osservatori che verifichino le condizione espresse nell’assioma 222. Quindi l’essere rigidi è una
proprietà dei piazzamenti invariante rispetto il cambiamento di osservatore.

Dimostrazione Ovvia, stante l’assioma della invarianza galileiana delle distanze e degli intervalli di tempo,
le proposizioni 223 e 231 e quando si ricordi che la composizione di operatori ortogonali produce operatori
ortogonali (vedi proposizione 193).
16.8. UN CASO NOTEVOLE: CONTINUI RIGIDI. 191

16.8.2 Gradi di libertà di un continuo rigido.


Nello studio della meccanica grande rilievo è assunto dal modello continuo rigido: infatti tale modello rappre-
senta la più immediata estensione del modello particella materiale tenendo conto dell’estensione spaziale del
corpo considerato. Il modello continuo rigido è stato sviluppato completamente per la prima volta da Eulero.
Si chiama continuo rigido un continuo a cui, a partire da una sua configurazione di confronto, sono
permessi solo piazzamenti rigidi.
Un tale continuo è vincolato a mantenere costante, durante il moto, la distanza tra i posti occupati da
due qualsiasi sue particelle materiali. Tale definizione fornisce un modello dei corpi reali che perde la sua
validità quando le azioni esterne sul corpo considerato ne inducano deformazioni che hanno effetti nella classe
di fenomeni da descrivere.
Che la seguente definizione sia ben posta è ovvia conseguenza delle proposizioni 231 e 233.
Considerato un continuo rigido B, e fissate quattro sue particelle materiali (o, P1 , P2 , P3 ) chiameremo
osservatore solidale a B l’osservatore (Oo (t), {ePi (t)}) dove Oo (t) denota la posizione assoluta in cui si
trova o all’istante t, e la base {ePi (t)} è costruita con i versori dei vettori assoluti ottenuti considerando lo
spostamento dalla posizione di o alle posizioni delle Pi occupate all”istante t.
Consideriamo un continuo rigido B piazzato nello spazio puntuale euclideo tridimensionale P. Si vuole
determinare una scelta di parametri reali (detti coordinate o parametri lagrangiani) necessari a caratte-
rizzarne univocamente la configurazione: il numero di tali parametri è detto numero dei gradi di libertà
di B.
Vogliamo dimostrare che il modello continuo rigido è un modello finito dimensionale a sei gradi di libertà
ed allo stesso tempo che, nell’ambito di un fissato modello finito dimensionale, esiste una certa arbitrarietà
nella scelta dei parametri lagrangiani.
Infatti si esaminano di seguito due insiemi di parametri lagrangiani che caratterizzano ugualmente lo spazio
delle configurazioni di un continuo rigido: in ogni caso il numero di parametri che risultano essere necessari e
sufficienti a tal fine è sei.

Primo insieme di parametri dello spazio delle Configurazioni: IR3 × S 2 × S 1 .


Riformulando il ragionamento che porta alla dimostrazione della proposizione 196, un primo metodo per
mettere in corrispondenza biunivoca lo spazio delle configurazioni di un continuo rigido con insiemi aperti di
terne di numeri reali parte dalla scelta di un osservatore S = (P1 , (r1 , r2 , r3 )) solidale a B costituito da tre
rette ortogonali di punti materiali concorrenti in un punto materiale P1 . Ovviamente ogni punto materiale di
B ha coordinate costanti nel tempo rispetto ad S. Conseguentemente:
Proposizione 234 Fissato un osservatore O, la posizione di ogni particella materiale di B e quindi lo stato
di B sono determinati dalla posizione di rO (P1 ) e dalla matrice di rotazione Q (S, O) .
La rotazione Q (S, O) che porta i vettori di base di O in quelli di S è detta variazione di assetto nel
passaggio da O ad S .
Siano P2 ∈ r2 e P3 ∈ r3 . Allora la configurazione di un continuo rigido sarà caratterizzato da:
1. La posizione xP1 di P1 . L’insieme di tutte le posizioni di una particella materiale si può mettere in
corrispondenza biunivoca con IR3 : infatti sono necessarie le 3 variabili scalari rO (P1 ) per caratterizzarne
lo stato.
2. La posizione di P2 che, stante il vincolo di rigidità, è determinata quando siano fissati solo 2 parametri
scalari. Infatti la posizione di P2 deve trovarsi nell’insieme di posti
S 2 : = {sfera di centro P1 e raggio d(XP1 , XP2 )} ,
ed i punti di questa sfera sono parametrizzati per mezzo di due angoli (ad esempio latitudine e longi-
tudine). L’insieme di tutte le posizioni permesse a P2 , una volta che sia bloccata la posizione di P1 , si
può mettere in corrispondenza biunivoca con S 2 ⊂ IR3 , la sfera di raggio unitario immersa in IR3 .
3. Il singolo parametro angolo di rotazione del vettore di particelle materiali P1 P3 intorno all’asse individu-
ato dai posti occupati dai due punti P1 e P2 . Infatti, sia π il piano dei posti ortogonale al segmento delle
posizioni spaziali del segmento materiale P1 P2 , la posizione del punto P3 è caratterizzata, ancora per
il vincolo di rigidità, dall’unico parametro scalare che è necessario per caratterizzare il generico posto
sulla circonferenza di posti
S 1 : = {p ∈ π : d (p, xP1 ) = d(XP1 , XP3 )} .

L’insieme di tutte le posizioni permesse a P3 , una volta che siano bloccate la posizione di P1 e di P2 si può
quindi mettere in corrispondenza biunivoca con S 1 ⊂ IR2 , il cerchio di raggio unitario immerso in IR2 .
192 CAPITOLO 16. CINEMATICA GALILEIANA

Secondo insieme di parametri: gli angoli di Eulero.


Un metodo alternativo per determinare i parametri che caratterizzano la configurazione di un continuo rigido,
si ottiene introducendo i cosiddetti angoli di Eulero.
Il contenuto di questa sottosezione riformula la sezione 13.10.1. Ricordiamo qui che in virtù della propo-
sizione 195 ogni applicazione ortogonale può riguardarsi come una rotazione intorno ad una direzione oppor-
tunamente scelta.
Denoteremo Q (e,α) oppure Qα e la rotazione di angolo α intorno all’asse e. Inoltre siano v1 e v2 due
versori ortogonali ad e: denoteremo Q(e, v1 ª v2 ) la rotazione di asse e che porta il versore v1 nel versore
v2 . Ovviamente si ha che

Q(e, v1 ª v2 ) = Q (e,α) , quando v1 · v2 = cos α, (v1 ∧ v2 ) · e = sin α. (16.21)

Scegliamo P ∈ B. La posizione xP di P è caratterizzata dalle tre variabili reali rO (P ). Introduciamo le


seguenti notazioni:

• l’osservatore rispetto al quale consideriamo le variazioni d’assetto ha origine in xP ed ha come terna di


vettori di base i versori ex , ey , ez (in letteratura, utilizzando una immagine suggestiva quanto fuorviante,
l’insieme dei punti solidali a questo osservatore viene spesso chiamato “spazio immobile”),

• e1 , e2 , e3 sono tre versori solidali col continuo B, di origine P : ciascuno di essi è formato da un segmento
di punti materiali; tali versori solidali si piazzano, al variare della configurazione di B, in posti diversi
(l’insieme dei punti solidale all’osservatore (xP , (e1 , e2 , e3 )) è chiamato in letteratura “spazio mobile”),

• i segmenti xe1 , xe2 , xe3 denotano le posizioni attuali dei segmenti materiali e1 , e2 , e3 ,

• eN è il versore (di posizioni) dell’asse ez × xe3 chiamato linea dei nodi che passa per xP .

Stante la proposizione 223 esiste una rotazione Q((xP , (ex , ey , ez )) , (xP , (xe1 , xe2 , xe3 ))) che sovrappone
l’osservatore “fisso” (xP , (ex , ey , ez )) all’osservatore “mobile” (xP , (xe1 , xe2 , xe3 )).
È immediato vedere (infatti come risultato della composizione delle tre rotazioni di seguito specificate ex
si sovrappone a xe1 , ez a xe3 ed ey a xe2 ) che vale la seguente

Proposizione 235 La rotazione Q((xP , (ex , ey , ez )) , (xP , (xe1 , xe2 , xe3 ))) può essere rappresentata come la
rotazione composta delle seguenti tre:

1. una prima rotazione di angolo ϕ intorno all’asse ez che porta ex a sovrapporsi ad eN ;

2. una seconda rotazione di angolo θ intorno all’asse eN che porta ez a sovrapporsi ad xe3 ;

3. una terza rotazione di un angolo ψ intorno all’asse xe3 che porta eN a sovrapporsi ad xe1 .

Gli angoli ϕ, θ, ψ si chiamano angoli di Eulero. Utilizzando le notazioni introdotte nella (16.21) si ha

Q((xP , (ex , ey , ez )) , (xP , (xe1 , xe2 , xe3 )))


= Q (xe3 , eN ª xe1 ) ◦ Q (eN , ez ª xe3 ) ◦ Q (ez , ex ª eN ) , (16.22)

con
ex · eN = cos ϕ, ez · xe3 = cos θ, eN · xe1 = cos ψ,
(16.23)
(ex ∧ eN ) · ez = sin ϕ, (ez ∧ xe3 ) · eN = sin θ, (eN ∧ xe1 ) · xe3 = sin ψ.

16.9 Trasformazioni galileiane delle velocità.


In questa sezione si vede come, accettato l’assioma della invarianza galileiana delle distanze e degli intervalli
di tempo, si possa dimostrare la legge di trasformazione galileiana delle velocità.
Un caso particolare di questa legge di trasformazione ci fornisce la formula di rappresentazione del campo
euleriano atto di moto rigido, cioè del campo di velocità euleriana (o spaziale) associato al moto di un
continuo rigido. Le proprietà di tale campo sono di grande utilità, tra l’altro, nella caratterizzazione dei
vincoli cinematici che si introducono nella teoria delle strutture.
Lo studio della cinematica del continuo rigido ha richiesto e dato impulso allo sviluppo della teoria degli
operatori lineari ortogonali ed antisimmetrici, oggetto della trattazione in due sezioni del Capitolo 13.
16.9. TRASFORMAZIONI GALILEIANE DELLE VELOCITÀ. 193

Il loro uso nello studio dei sistemi di continui rigidi fu introdotto da Gibbs: grazie alle sue idee la cinematica
può essere sviluppata anche senza le complesse costruzioni ed i ragionamenti geometrici che ne avevano
caratterizzato lo sviluppo in epoca ellenistica. Rimandando il lettore interessato a questo argomento ai saggi
di Russo [35] e Boyer [8] si vuole notare qui che la rivoluzione concettuale cartesiana, che aveva portato
allo sviluppo della geometria analitica permettendo la feconda interazione fra algebra, analisi matematica e
geometria, ha invaso la meccanica grazie alla visione unificante cominciata da Gibbs, continuata da Lagrange
e compiuta da Levi-Civita portando allo sviluppo del calcolo tensoriale assoluto.
A proposito della corrispondenza fra terne di numeri reali e matrici antisimmetriche 3 × 3 stabilita nella
sezione 13.9 (proposizioni 186 e 191) vogliamo esplicitamente notare qui che due distinti vettori croce di Gibbs
possono essere associati ad un dato tensore antisimmetrico, a seconda che la corrispondenza fra componenti
data dalle (13.220) si riferisca a basi destrogire o levogire. Questa circostanza non deve sorprendere, perchè
ovviamente le modalità di variazione delle componenti di un vettore sono diverse da quelle di un tensore e solo
nel caso particolare di spazi vettoriali di dimensione tre le componenti strette di un tensore antisimmetrico
sono in numero uguale alle componenti di un vettore. Tuttavia, in maniera spesso fuorviante, in alcuni testi
(specialmente di fisica generale) si introduce il concetto di pseudo-vettore o vettore assiale, immediata-
mente dopo aver definito il prodotto vettoriale. Generalmente il lettore non riesce a rendersi conto della
ragione per cui in un passaggio da una base levogira ad una destrogira le componenti di un vettore (sebbene
qualificato come assiale) non varino nel modo usuale, perchè appare, quasi magicamente, un inaspettato segno
meno. In realtà un vettore assiale non è un vettore, bensì un operatore antisimmetrico, la cui rappresentazione
matriciale varia nel modo usuale per cambiamenti di base. La croce di Gibbs, che si può definire solo in spazi
tridimensionali, è solo un artificio che permette di rappresentare, talvolta, in modo più agevole gli operatori
antisimmetrici.
Riportiamo qui una semplice proposizione riguardo matrici antisimmetriche la cui dimostrazione è semplice
quando si considerino le proprietà del prodotto vettoriale in IR3 .
Proposizione 236 Sia W una matrice antisimmetrica (a componenti reali) non nulla e w la sua croce di
Gibbs. Si ha
2
∀u⊥ : u⊥ · w = 0 ⇒ W 2 u⊥ = − kwk u⊥ .
2
Quindi W 2 ha due autovalori distinti λ1 = 0 e λ2 = − kwk , relativi rispettivamente al sottospazio degli
autovettori © ª
Uw := v ∈ IR3 : ∃µ ∈ IR → v = µw ,
(insieme dei vettori paralleli a w) ed (Uw )⊥ , (insieme dei vettori ortogonali a w). Ovviamente la dimensione
di Uw (risp. di (Uw )⊥ ), cioè la molteplicità geometrica di λ1 (risp. di λ2 ) è pari ad 1 (risp. 2).
Dimostrazione Il generico vettore u in IR3 può decomporsi in maniera unica
µ ¶
w w
u= u· + u⊥ , (16.24)
kwk kwk
con u⊥ · w = 0. Allora
2
W 2 u = w ∧ (w ∧ u) = w ∧ (w ∧ u⊥ ) = − kwk u⊥ . (16.25)

16.9.1 Legge di trasformazione galileiana delle velocità e delle accelerazioni nel


cambiamento di osservatore.
Si considerino due osservatori in moto relativo O1 = (O1 , (e1 , e2 , e3 )) , O2 = (O2 , (ê1 , ê2 , ê3 )) che usano le
stesse unità di misura ed in particolare gli stessi cronometri: in generale il vettore posizione (risp. il vettore
(O) (O)
velocità) di O2 rispetto ad O1 , che denotiamo r12 (risp. v12 ), è una funzione del tempo, come la matrice
M12 di trasformazione delle componenti dei vettori traslazione come determinate da O2 in quelle relative
ad O1 . Ciascuno degli osservatori, le cui origini O1 , O2 sono in generale distinte, rappresenta ogni grandezza
vettoriale (in particolare le traslazioni) per mezzo di una terna di numeri reali ed ogni operatore lineare (in
particolare le variazioni di assetto) per mezzo di una matrice rispettivamente grazie alla basi (e1 , e2 , e3 ) e
(ê1 , ê2 , ê3 ) di T P.
Proposizione 237 Introduciamo la funzione W a valori nell’insieme delle matrici7
T
W : t 7→ Ṁ12 M12 . (16.26)
7 Come è tradizione nei testi di Meccanica (si veda per esempio Arnold 1978) anche nelle nostre notazioni non sono sempre
distinte le funzioni dai loro valori.
194 CAPITOLO 16. CINEMATICA GALILEIANA

L’immagine di tale funzione è inclusa nell’insieme delle matrici antisimmetriche.


Dimostrazione Dal momento che M12 è ortogonale vale la catena di implicazioni
³ ´T
T T T T T
M12 M12 = I ⇒ Ṁ12 M12 + M12 Ṁ12 = 0 ⇒ Ṁ12 M12 = − Ṁ12 M12 . (16.27)

Chiameremo vettore velocità angolare di O2 rispetto ad O1 la funzione del tempo ω 12 che ad ogni
T
istante t associa la croce di Gibbs di Ṁ12 M12 .
Proposizione 238 Della legge di trasformazione galileiana delle velocità. Si consideri una particella
materiale P in moto rispetto gli osservatori O1 ed O2 rispettivamente con velocità v1 e v2 . Vale la seguente
relazione fra le introdotte funzioni vettoriali e matriciali della variabile t,
(O) (O)
v1 = M12 v2 + v12 + ω 12 ∧ (r1 − r12 ), (16.28)
dove r1 rappresenta il vettore posizione rispetto ad O1 della particella P.
Dimostrazione Derivando la eq. (16.2) rispetto al tempo si ha
(O)
v1 = Ṁ12 r2 + M12 v2 + v12 . (16.29)
Se si ricava poi r2 ancora dalla eq. (16.2)
³ ´ ³ ´
−1 (O) T (O)
M12 r1 − r12 = M12 r1 − r12 = r2 , (16.30)

e sostituisce nella (16.29), usando la proposizione 237 e la definizione di velocità angolare si ottiene la (16.28).

È facile ora dimostrare anche che


Proposizione 239 Si denotino con a1 , a2 rispettivamente le accelerazioni di P relativamente agli osservatori
(O)
O1 ed O2 e con a12 l’accelerazione di O2 rispetto ad O1 . Vale la seguente legge di trasformazione galileiana
delle accelerazioni:
³ ´
(O) (O) (O) (O)
a1 = M12 a2 + a12 − ω 12 ∧ ω 12 ∧ (r1 − r12 ) + ω̇ 12 ∧ (r1 − r12 ) + 2ω 12 ∧ (v1 − v12 ). (16.31)

Dimostrazione Si cominci con il derivare rispetto al tempo la (16.28)


(O) (O) (O)
a1 = Ṁ12 v2 + M12 a2 + a12 + ω̇ 12 ∧ (r1 − r12 ) + ω 12 ∧ (v1 − v12 ). (16.32)
Si ricavi poi v2 dalla (16.28)
³ ´
T (O) (O)
M12 v1 − v12 − ω 12 ∧ (r1 − r12 ) = v2 , (16.33)

e si sostituisca nella (16.32) ottenendo la (16.31).


³ ´
(O) (O) (O)
Le accelerazioni 2ω 12 ∧(v1 −v12 ), −ω 12 ∧ ω 12 ∧ (r1 − r12 ) , ω̇ 12 ∧(r1 −r12 ) che appaiono nella (16.31)
sono rispettivamente dette di Coriolis, centripeta (si ricordi la proposizione 236) e complementare.

16.10 Formula di rappresentazione euleriana dell’atto di moto rigi-


do.
Consideriamo un continuo B, una sua configurazione di confronto C ∗ e l’insieme F(C ∗ ) delle funzioni piaz-
zamento di B a partire da C ∗ . Denoteremo FR (C ∗ )⊂F(C ∗ ) il sottoinsieme delle funzioni di piazzamento che
verificano la condizione di rigidità.
Chiameremo moto di B nell’intervallo temporale [t0 , tf ] una funzione due volte differenziabile rispetto al
tempo specificata dalla
m : t ∈ [t0 , tf ] 7→ χt ∈ F(C ∗ ). (16.34)
Chiameremo moto rigido un moto di B a valori in FR (C ∗ ). Si definisce atto di moto rigido il campo,
nella sua descrizione euleriana (spaziale), delle velocità dei punti materiali di un continuo in moto rigido.
Conviene ora riferire il moto di B ad un prefissato osservatore O. Sia poi S l’osservatore solidale a B in un
suo moto rigido. Ricordando che, in un suo moto rigido, tutte le particelle materiali di B sono ferme rispetto
all’osservatore S la proposizione (238) implica banalmente il seguente altro:
16.10. FORMULA DI RAPPRESENTAZIONE EULERIANA DELL’ATTO DI MOTO RIGIDO. 195

Proposizione 240 Si consideri un continuo B in moto rigido e due particelle materiali O e P (la generica
particella materiale di B). Fissato un istante t, siano rO ed rP i vettori posizione di O e di P come misurati
da O. Se v(rO , t), v(rP , t) denotano rispettivamente le velocità euleriane delle particelle O e P , intese come
vettori applicati nei posti caratterizzati dai vettori rO ed rP , esiste un unico vettore ω(t) (detto velocità
angolare di B) tale che:

v(rP , t) = v(rO , t) + ω(t) ∧ (rP − rO ) ∀P ∈ B. (16.35)

La formula precedente definisce, ad ogni istante t,8 il generico campo spaziale di velocità atto di moto rigido.
Il posto rO (ma anche la particella materiale O che lo occupa all’istante t) è detto polo dell’atto di moto.

Si noti che la (16.35) permette di estendere il campo delle velocità in un atto di moto rigido anche in posti
dello spazio in cui nessuna particella materiale di B si venga a trovare nell’istante considerato.
Un atto di moto rigido quindi risulta caratterizzato dai due vettori ω(t) e v(rO , t) (noti in termini di sei
parametri scalari): fissata la velocità angolare del corpo rigido e la velocità di una sua particella materiale, la
velocità di un qualsiasi altra particella è univocamente determinata come specificato dalla relazione (16.35).
Esistono esattamente ∞6 atti di moto rigido a partire da un configurazione attuale di un continuo B. Si noti
che i gradi di libertà di un continuo rigido sono 6.

Proposizione 241 La formula di rappresentazione (16.35) ed il vettore velocità angolare non dipendono dalla
scelta della particella O.

Dimostrazione Infatti sia Ô un’altra particella di B si ha

v(rÔ , t) − ω(t) ∧ (rÔ − rO ) = v(rO , t), (16.36)

che sostituita nella (16.35) comporta

v(rP , t) = v(rÔ , t) + ω(t) ∧ (rP − rÔ ) ∀P ∈ B. (16.37)

Considerati due atti di moto rigido, per la proposizione precedente, essi possono essere rappresentati
rispetto lo stesso polo come segue

v1 (rP , t) = v1 (rO , t) + ω 1 (t) ∧ (rP − rO ) ∀P ∈ B,


(16.38)
v2 (rP , t) = v2 (rO , t) + ω 2 (t) ∧ (rP − rO ) ∀P ∈ B.

Chiameremo composizione dei due atti di moto l’atto di moto (che risulta banalmente rigido) ottenuto
sommandoli; in formule:

v1+2 (rP , t) := v1 (rP , t) + v2 (rP , t) = v1 (rO , t) + v2 (rO , t) + (ω 1 (t)+ω 2 (t)) ∧ (rP − rO ). (16.39)

In particolare la somma di atti di moto rigidi traslatori (risp. rotatorio) è traslatorio (risp. rotatorio).
La velocità di traslazione (risp.rotazione) dell’atto di moto somma è la somma delle velocità di traslazione
(risp.rotazione) componenti.
Chiameremo atto di moto (puramente) traslatorio un atto di moto rigido per cui ω(t)= 0. Chiameremo
atto di moto (puramente) rotatorio un atto di moto rigido per cui i) il vettore velocità angolare è non nullo
ii) esiste una particella materiale P̂ ∈ B la cui velocità è nulla. Chiameremo asse istantaneo di rotazione
in un atto di moto puramente rotatorio la retta r di posti
© ª
r := r : r = rP̂ + λω, λ ∈ IR . (16.40)

Dalla definizione e dalla (16.35) risulta ovvio che tutte le particelle materiali eventualmente localizzate
nei posti che formano l’asse istantaneo di rotazione hanno velocità nulla. L’asse istantaneo di rotazione è un
insieme di posti che può variare nel tempo ed in istanti diversi può essere “costituito” od “occupato” da diversi
sottoinsiemi di particelle materiali appartenenti a B o anche non occupato da nessuna di tali particelle.
La formula di rappresentazione (16.35) permette di dimostrare con semplici ragionamenti algebrici il
classico teorema, dovuto a Mozzi.

Proposizione 242 Ogni atto di moto rigido é un atto di moto elicoidale, cioé la composizione di un moto
puramente traslatorio (con velocità di traslazione parallela ad ω) e di uno puramente rotatorio.
8 Quando non ci sia possibilità di confusione la variabile t verrà omessa.
196 CAPITOLO 16. CINEMATICA GALILEIANA

Dimostrazione Si consideri il generico atto di moto rigido

v(r)= v(r0 )+ω ∧ (r − r0 ) . (16.41)

Se ω = 0 allora il teorema è ovvio. Sia ω 6= 0. Si cominci con il dimostrare che l’insieme dei posti

R := {r : v(r)k ω} , (16.42)

è una retta. Si consideri che

r ∈ R ⇒∃λ(r) ∈ IR : v(r)= v(r0 )+ω ∧ (r − r0 ) = λ(r)ω. (16.43)

Ma lo scalare λ(r) si può facilmente determinare calcolando il prodotto scalare dell’ultima uguaglianza per ω:

v(r0 ) · ω
ω · v(r0 )+ω · [ω ∧ (r − r0 )] = λ(r)ω · ω ⇒λ(r) = . (16.44)
ω·ω
Quindi λ(r) è indipendente da r. Conseguentemente
½ µ ¶ ¾
v(r0 ) · ω
R = r : v(r0 )+ω ∧ (r − r0 ) = ω . (16.45)
ω·ω

Eseguendo il prodotto vettoriale per ω dei due membri della (16.44) si ha

ω ∧ v(r0 )+ω ∧ (ω ∧ (r − r0 )) = 0, (16.46)

che stante la (16.25) comporta


2
kωk (r − r0 )⊥ = ω ∧ v(r0 ) ∀r ∈ R. (16.47)
Quindi il posto di coordinate
ω ∧ v(r0 )
ra := r0 + 2 , (16.48)
kωk
appartiene ad R. Inoltre la retta che passa per ra parallela ad ω è ovviamente inclusa in R. Ma stante la
(16.47) la traslazione fra due punti di R è parallela ad ω e quindi la citata retta esaurisce R. Rappresentando
l’atto di moto rigido rispetto al polo ra si ha

v(r)= v(ra )+ω ∧ (r − ra ) = λω+ω ∧ (r − ra ) , (16.49)

che prova l’asserto.


Un campo euleriano U si dice equiproiettivo se per ogni coppia di posti p1 e p2 sono uguali le proiezioni
lungo la loro congiungente dei vettori U(p1 ) e U(p2 ). In formule la condizione di equiproiettività si scrive:

U(p1 ) · (p1 − p2 ) = U(p2 ) · (p1 − p2 ) , ∀p1 , p2 . (16.50)

Proposizione 243 La condizione di equiproiettività è condizione necessaria e sufficiente a quella di rigidità.


In altre parole: un campo di velocità è un atto di moto rigido se e soltanto se esso è equiproiettivo. Si
può quindi concludere che la formula di rappresentazione (16.35), che è di natura algebrica, trova la sua
controparte geometrica nella proprietà di equiproiettività.

Dimostrazione Che un atto di moto rigido abbia la proprietà di essere equiproiettivo è facilmente
verificato dalla (16.35). Infatti, essendo il prodotto vettore ortogonale ai suoi fattori, si ha:

(v(pP , t) − v(pO , t)) · (pP − pO ) = (ω(t) ∧ (pP − pO )) · (pP − pO ) = 0 (16.51)

Per la dimostrazione della proprietà inversa si cominci ad utilizzare ripetutamente la (16.50) insieme alla
proposizione 202 per costruire la seguente catena di uguaglianze, che vale per ogni terna di posizioni p1 , p2 e
p3

0 = (U(p1 ) − U(p2 )) · (p1 − p2 )


= [(U(p1 ) − U(p3 )) + (U(p3 ) − U(p2 ))] · [(p1 − p3 ) + (p3 − p2 )]
= [U(p1 ) − U(p3 )] · [(p1 − p3 ) + (p3 − p2 )] + [U(p3 ) − U(p2 )] · [(p1 − p3 ) + (p3 − p2 )]
= [U(p1 ) − U(p3 )] · (p3 − p2 ) + [U(p3 ) − U(p2 )] · (p1 − p3 )
= [U(p1 ) − U(p3 )] · (p2 − p3 ) + [U(p2 ) − U(p3 )] · (p1 − p3 ) . (16.52)
16.10. FORMULA DI RAPPRESENTAZIONE EULERIANA DELL’ATTO DI MOTO RIGIDO. 197

Si definisca poi l’applicazione M che ad ogni coppia (p, v) associa il vettore U(p + v) − U(p), così da potere
esprimere la (16.52), ponendo
p3 = p, v =p1 − p3 , u =p2 − p3 , (16.53)
equivalentemente nel seguente modo

M (p, v) · u+M (p, u) · v =0. (16.54)

La suggestiva relazione appena ottenuta, ovviamente valida, fissato il punto p, per ogni coppia di vettori u e
v comporta che l’applicazione M è lineare rispetto la variabile v. Infatti scelta una base (e1 , e2 , e3 ) la (16.54)
comporta la seguente catena di uguaglianze

M (p, αu+βw) · ei = M (p, ei ) · (αu+βw) = αM (p, ei ) · u+βM (p, ei ) · w


= αM (p, u) · ei +βM (p, w) · ei = (αM (p, u) +βM (p, w)) · ei . (16.55)

Si noti come la dimostrazione della linearità della M (p, v) ricalchi la dimostrazione della proposizione 103
che stabilisce la linearità di applicazioni che conservano il prodotto scalare. Per completare la dimostrazione
basti notare che l’applicazione lineare M, stante la (16.54), è ovviamente antisimmetrica e non dipende dalla
variabile p. Infatti

M (p1 , p2 −p1 ) = U(p2 ) − U(p1 ) = − (U(p1 ) − U(p2 )) = −M (p2 , p1 −p2 ) . (16.56)


198 CAPITOLO 16. CINEMATICA GALILEIANA
Capitolo 17

DEFORMATICA

Scopo di questo capitolo è lo studio di quei modelli dei sistemi di corpi che riescono a descrivere alcuni
dei fenomeni coinvolti nella loro deformazione. L’insieme di tali modelli include almeno tre sottoclassi che
discuteremo qui. Nella prima diverse parti dei corpi considerati sono modellate come continui rigidi, cosicchè
la loro deformabilità risulti modellata dalle variazioni d’assetto e traslazioni relative degli introdotti continui
rigidi: in questo modo si introduce un modello di sistema articolato di continui rigidi. Nella seconda sottoclasse
si considerano sistemi di corpi snelli che interagiscono fra loro e con il mondo esterno in modo tale che le uniche
deformazioni cui sono soggetti siano allungamenti od accorciamenti: stiamo parlando del modello di struttura
reticolare. Infine nella terza sottoclasse il corpo considerato è modellato come continuo tridimensionale di
Cauchy il cui insieme dei piazzamenti ammissibili coincide con l’insieme dei piazzamenti di classe almeno C 1
rispetto alla variabile Lagrangiana X che ne etichetta la generica particella materiale nella configurazione di
confronto.

17.1 Parametri lagrangiani e gradi di libertà.


In questa sezione si discutono alcune delle proprietà generali dei modelli finito dimensionali, come comprese
e formalizzate da Lagrange. Infatti la cinematica sviluppata nell’ambito di tali modelli ha delle peculiarità
che sono del tutto indipendenti dalla specifica natura dei singoli sistemi fisici da descrivere. In particolare,
nelle considerazioni che seguono, come in molte di quelle sviluppate nel Capitolo 22, nessun riferimento
è fatto alle proprietà geometriche del sistema meccanico considerato. In realtà, come già è stato osservato
nell’introduzione, modelli finito dimensionali possono essere sviluppati per sistemi affatto differenti dai sistemi
di corpi in moto nello spazio puntuale euclideo tridimensionale: alcuni dei fenomeni che meglio si sono prestati
ad essere descritti utilizzando i metodi della meccanica lagrangiana riguardano l’evoluzione temporale di
sistemi economici o biologici in cui le proprietà geometriche dello spazio puntuale euclideo tridimensionale
non hanno, nè possono avere, alcuna rilevanza.
Ovunque necessario distingueremo fra il concetto di insieme (o spazio) degli stati e quello di spazio
delle configurazioni. Fissato un sistema fisico l’insieme dei suoi stati è descritto in un dato modello da un
ben preciso insieme di enti matematici. Tale insieme è rappresentato da uno spazio delle configurazioni.
Si noti che un medesimo spazio degli stati può essere descritto per mezzo di diversi spazi delle configurazioni:
come esempio semplice si pensi all’esempio 228 discusso nell’introduzione del Capitolo 16.
Sia fissato un sottoinsieme A dell’insieme delle configurazioni di un modello finito dimensionale. Gli n
parametri reali scelti in questo modello per caratterizzare gli stati considerati del sistema fisico modellato
sono detti parametri o coordinate lagrangiane e saranno indicati con una delle notazioni

(q1 , q2 , ...., qn ), (qi ), q. (17.1)

L’applicazione che associa ad ogni elemento di A i corrispondenti valori delle coordinate lagrangiane è detta
carta.
Non sempre è possibile caratterizzare globalmente l’insieme delle configurazioni di un sistema per mezzo
di una unica scelta di parametri lagrangiani. Questa circostanza si verifica già nel caso appena considerato
del modello continuo rigido: non esiste infatti una corrispondenza biunivoca e bicontinua fra tutta la sfera
S 2 e l’intero IR2 . È quindi chiaro che la geometria degli spazi IRn non è abbastanza complessa per descrivere
lo spazio delle configurazioni anche quando si introducano modelli finito dimensionali. Il lettore che, arrivato
a questo punto, abbia delle difficoltà ad immaginare la struttura geometrico-differenziale dello spazio delle
configurazioni è invitato a passare subito alla lettura dell’ultima sezione di questo capitolo.

199
200 CAPITOLO 17. DEFORMATICA

Diremo che un modello finito dimensionale è ad n gradi di libertà se nel suo ambito lo stato del sistema
descritto è caratterizzato per mezzo di esattamente n coordinate lagrangiane.

17.2 Vincoli in modelli finito-dimensionali.


Un dato sistema fisico può interagire in molti modi diversi con il mondo esterno. Talvolta l’azione del mondo
esterno può essere modellato per mezzo di una semplice regola di selezione nello spazio delle configurazioni:
in altre parole l’effetto di detta azione può essere riguardato come una restrizione dell’insieme degli stati
accessibili al sistema. In questo caso si dice che al sistema sono applicati dei vincoli esterni.
Sia M un modello ad n gradi di libertà; indicando con (q1 , q2 ......qn ) un vettore coordinate lagrangiane, si
dice vincolo non singolare di ordine k la k − pla di funzioni indipendenti1 :

f1 (q1 , q2 ......qn ), ..., fk (q1 , q2 ......qn ), (17.2)

tali che lo stato caratterizzato da q è permesso dal vincolo se e solo se sono verificate le k equazioni:

fi (q) = 0, i = 1, ..., k. (17.3)

L’intero k è detto molteplicità del vincolo e rappresenta il numero di gradi di libertà del sistema soppressi
dall’applicazione del vincolo.
In definitiva possiamo riguardare un vincolo come una relazione che seleziona un sottoinsieme V dello
spazio delle configurazioni S; V viene detto insieme degli stati permessi, che stante l’indipendenza delle fi ,
risulta essere una ipersuperficie nello spazio delle configurazioni S.
Talvolta è però necessario tradurre l’azione di un vincolo con un sistema di disequazioni del tipo:

⎨ f1 (q1 , ..., qn ) ≤ 0,

.. (17.4)
⎪ .

fk (q1 , ..., qn ) ≤ 0.

Il vincolo si dirà unilaterale se almeno una delle relazioni è una disequazione stretta, si dirà bilaterale se
tutte le relazioni sono uguaglianze.
Sia data una particella materiale costretta a muoversi in un semipiano. Scelto un opportuno sistema di
riferimento nello spazio delle posizioni lo stato della particella materiale libera è caratterizzato dalla terna di
coordinate x, y, z ed il vincolo ad esso applicato dalle relazioni
½
z=0
. (17.5)
x≤0

Quindi il vincolo introdotto è unilaterale.


Sia data una l − pla di funzioni (fi ) definite in uno spazio delle configurazioni di dimensione n. Dalla
definizione, la molteplicità k ≤ l del vincolo è data dal massimo numero di funzioni indipendenti in (fi ) , ossia
dal rango della matrice jacobiana di (fi ): ∙ ¸
∂f ∂fi
J= = . (17.6)
∂q ∂qj
J è detta matrice cinematica del modello finito dimensionale.(di dimensione n − k) ottenuto imponendo il
vincolo rappresentato dalle (fi ) al modello n-dimensionale di partenza.

17.3 Moto.
Nella sezione precedente non si sono considerati fenomeni di passaggio da uno stato ad un altro. Ancora una
volta le idee dell’analisi matematica ci forniscono un valido aiuto nel formalizzare il concetto di evoluzione
regolare nel tempo. Si ricorderà che la scoperta del calcolo differenziale e dell’importanza dei concetti di
continuità e differenziabilità di una funzione è attribuita generalmente a Newton, il quale fu indotto a svilup-
parli per la necessità di descrivere il moto di corpi nello spazio puntuale euclideo dei posti. La richiesta di
continuità per la funzione moto fu giustificata da Newton affermando che: “Natura non facit saltus”. Questa
affermazione che fu pensata come valida universalmente è stata smentita da quelle evidenze sperimentali che
hanno portato allo sviluppo della meccanica quantistica. Che poi non si possa in generale richiedere che la
funzione moto sia differenziabile è chiara quando si pensi ai fenomeni d’impatto ed urto fra corpi.
1 Una k − pla di funzioni si dice indipendente quando la sua matrice Jacobiana ha rango massimo.
17.3. MOTO. 201

Si definisce moto una legge oraria

Moto : t 7→ (q1 (t), q2 (t), q3 (t).....qn (t)) = q(t), (17.7)

che associa ad ogni istante t uno stato rappresentato dalla n-pla ordinata q(t).
Solitamente si limita l’ambito di applicabilità dei modelli sviluppati restringendosi al caso di leggi orarie
che siano almeno due volte differenziabile rispetto al tempo. In alcuni modelli si introducono anche i cosiddetti
moti impulsivi, che sono moti una volta differenziabili e due volte differenziabili a tratti: in alcuni istanti di
tempo al sistema considerato sono applicati impulsi che fanno saltare il vettore velocità. Questi modelli sono
necessari, per esempio, nella descrizione degli urti fra corpi.
Il vettore che si ottiene derivando la legge oraria rispetto al tempo é detta velocità lagrangiana:
µ ¶
dq1 dq2 dqn
q̇L = , ,..., . (17.8)
dt dt dt
Ovviamente i vincoli, selezionando fra tutti gli elementi dello spazio degli stati quelli permessi, determinano
anche l’insieme degli atti di moto permessi. In altre parole, assegnate le funzioni di vincolo in un dato modello
bisogna aspettarsi che anche le velocità lagrangiane risultino selezionate, alcune di esse risultando proibite. Il
passaggio da uno stato permesso ad uno stato proibito non è permesso.
Infatti vale la seguente:

Proposizione 244 Le velocità lagrangiane permesse ad un sistema vincolato sono ortogonali al gradiente
della funzione di vincolo e quindi tangenti alla ipersuperficie V.

Dimostrazione Se un moto rispetta un dato vincolo si ha :

∀t f (q1 (t), q2 (t), q3 (t).....qn (t)) = 0, (17.9)

da cui, derivando rispetto al tempo ed usando la regola di derivazione delle funzioni composte, si ottiene:
∂f dq1 ∂f dq2 ∂f dqn
+ + ··· + = 0, (17.10)
∂q1 dt ∂q2 dt ∂qn dt
cioè (cfr. (14.309); si noti che tale formula è valida nel caso n-dimensionale in quanto non è coinvolto il
prodotto vettore):
gradf · q̇L = 0. (17.11)
Quest’ultima relazione dimostra l’asserto.
Concludiamo questa sezione con alcuni esempi, alcuni dei quali tratti da modelli di fenomeni non meccanici.

• Sia P un punto materiale e sia

f (x1 , x2 , x3 ) = (x21 + x22 + x23 − R2 ) = 0, (17.12)

il vincolo (di molteplicità 1) cui è soggetto. Le velocità lagrangiane permesse sono tangenti alla superficie
sferica cui P è vincolato.
• Se P è vincolato a muoversi all’interno della regione la cui frontiera è la sfera di equazione (17.12) e nel
piano coordinato x1 = 0 allora il vincolo è unilaterale ed è rappresentato dalle relazioni

f1 (x1 , x2 , x3 ) = (x21 + x22 + x23 − R2 ) ≤ 0,


(17.13)
f2 (x1 , x2 , x3 ) = x1 = 0.

• Siano q1 e q2 le quantità acquistate da un agente economico A di due beni succedanei rispettivamente


di costo unitario p1 e p2 . Sia M la spesa massima che A può sostenere per acquistarli. Il vincolo di
bilancio (unilaterale) per A è rappresentato dalle relazioni

q1 p1 + q2 p2 ≤ M. (17.14)

• Si considerino due masse di solvente m1 , m2 . Supponiamo di dissolvere in tutte e due le masse due soluti
diversi e di considerare solo fenomeni di evoluzione quasi statica, in cui le densità di soluto e solvente
siano costanti nello spazio. Come parametri lagrangiani del sistema possiamo, allora, considerare le
concentrazioni massiche dei soluti cij . Tale concentrazione è definita come il rapporto fra la massa del
soluto j dissolto e la massa del solvente i. Supponiamo infine di collegare le due soluzioni per mezzo
202 CAPITOLO 17. DEFORMATICA

di un setto permeabile solo ai soluti e che inizialmente nella massa m1 (risp. m2 ) siano dissolte la
massa µ11 (risp.µ21 ) del soluto di tipo 1 e la massa µ12 (risp.µ22 ) del soluto di tipo 2. Il vincolo sulle
concentrazioni che deve essere considerato se nessuna massa di soluti è aggiunta negli istanti successivi
è dato dalle (j = 1, 2):
X2 2
X
mi cij = µij . (17.15)
i=1 i=1
Queste equazioni rappresentano matematicamente le leggi di conservazione della massa dei soluti.

17.4 Sistemi articolati di continui rigidi.


In prima approssimazione si può tentare di modellare un insieme di più corpi collegati fra di loro per mezzo di
apparati vincolari utilizzando per ciascuno dei corpi costituenti il modello di continuo rigido ed introducendo
delle opportune equazioni di vincolo. Purtroppo la modellazione così ottenuta non permette una descrizione
sufficientemente accurata di molte strutture di grande importanza nelle applicazioni. Tuttavia essa può essere
utilizzata con successo nel caso particolare in cui la struttura sia isostatica2 : ciò accade quando gli apparati
vincolari applicati non impediscano più di una sola volta un dato cinematismo cioè quando la struttura non
è soggetta a vincoli sovrabbondanti.
Consideriamo un sistema di N continui rigidi. Sia Bi con i = 1, ..., N il generico fra tali corpi e sia Oi ∈ Bi
un punto materiale convenientemente scelto. Come stabilito nel numero 16.8.2, lo stato del sistema di continui
rigidi considerato sarà caratterizzato da 6N parametri lagrangiani. Scelto un osservatore O, una possibile
6N − pla di parametri lagrangiani sarà data dai vettori posizione ri dei punti Oi e dagli angoli di Eulero ϕi ,
ψ i , θi che caratterizzano l’orientazione del sistema solidale a Bi relativamente ad O, cioè l’assetto di Bi .
Consideriamo un sistema di N continui rigidi soggetti ad un insieme di vincoli. Tale sistema vincolato di
continui sarà detto macchina se l’insieme delle configurazioni che risultano permesse dopo l’applicazione dei
vincoli è caratterizzato da un numero non nullo di parametri lagrangiani, cioè se risulta avere n > 0 gradi di
libertà. Se invece l’applicazione dei vincoli comporta che al sistema di continui rigidi risulta permessa una
sola configurazione allora esso sarà chiamato struttura.
Lo spazio delle configurazioni di un dato sistema di continui rigidi vincolati può ridursi ad un singleton.
Questo significa che, quando i vincoli applicati siano efficaci, una sola configurazione è permessa al sistema,
al quale non sono stati lasciati gradi di libertà. Questo è il caso per i sistemi di corpi che abbiamo appena
chiamato strutture.
In altri casi un sistema di continui rigidi vincolati può avere dei gradi di libertà: il sistema considerato,
sebbene composto da continui rigidi, nel suo complesso non è rigido poichè durante un suo moto la distanza
di alcune coppie di punti materiali varia nel tempo. Questi sono i sistemi che abbiamo chiamato macchine.
Talvolta opportune macchine vengono introdotte per descrivere fenomeni di deformazione utilizzando
come modello un sistema di continui rigidi vincolati. In questo caso le forze di interazione fra le varie parti
dell’insieme di corpi determinate dalla sua deformazione si modellano introducendo opportunamente molle
(cioè forze di richiamo) che collegano particelle materiali di diversi continui.

17.4.1 Vincoli applicati ad un continuo rigido e loro molteplicità.


Specificheremo qui la natura cinematica di alcuni vincoli comunemente applicati ad un singolo continuo
rigido B: faremo ciò determinando per ciascuno di essi sia l’insieme delle configurazioni sia l’insieme delle
velocità lagrangiane permesse. Si noti che anche in questa sottosezione sviluppiamo dei modelli matematici
che rappresentano alcuni oggetti reali, gli apparati vincolari, che limitano i cinematismi dei corpi reali: non è
tradizionalmente scopo del corso di Scienza delle Costruzioni (e non oseremo violare la tradizione) discutere
degli artifici tecnici con cui tali apparati si realizzano nelle varie circostanze ed in quale misura i modelli qui
proposti ne descrivono effettivamente il comportamento.

Cerniera sferica.
Si tratta di un vincolo in grado di fissare la posizione di un punto O di B: elimina tre gradi di libertà (vincolo
con molteplicità 3). I gradi di libertà residui sono 3, una possibile scelta di coordinate lagrangiane per il
sistema vincolato è dato dagli angoli di Eulero di B, l’insieme degli atti di moto rigidi permessi al sistema
è l’insieme delle rotazioni intorno ad O con velocità angolare qualsiasi. Le equazioni che rappresentano tale
vincolo sono
rO = r̄O , vO = 0. (17.16)
2 Una definizione matematicamente più precisa di questo concetto è data in qualsiasi testo di Scienza delle Costruzioni.
17.4. SISTEMI ARTICOLATI DI CONTINUI RIGIDI. 203

Carrello.
Il vincolo carrello obbliga un punto P di B, a muoversi su una superficie Σ ⊂ P. Lo stato del continuo B
è determinato conoscendo i) la posizione del punto P su Σ, caratterizzata da due coordinate e ii) altri tre
parametri lagrangiani, caratterizzanti l’assetto di B in P. Il vincolo ha molteplicità 1: al continuo rimangono
5 gradi di libertà. Se fΣ è la funzione che caratterizza la superficie Σ, le equazioni del vincolo sono:

fΣ (rP ) = 0, vP · gradfΣ = 0. (17.17)

Cerniera Cilindrica.
La cerniera cilindrica fissa la posizione di tutti i punti sostanziali di un continuo rigido appartenenti ad un
asse, detto asse di rotazione, lasciando al continuo l’unica possibilità di ruotare attorno all’asse stesso. La
cerniera cilindrica ha molteplicità 5. Sia O un punto appartenente all’asse di rotazione, di versore e, e siano
scelti gli angoli di Eulero in modo tale che θ rappresenti la rotazione intorno e, le equazioni del vincolo sono
date da
rO = r̄O , ϕ = ϕ̄, ψ = ψ̄; vO = 0, ω k e. (17.18)

Glifo.
È un vincolo che permette le traslazioni parallele ad una determinata retta r di versore e. Il glifo ha molteplicità
5 e lascia al continuo rigido un solo grado di libertà, una possibile scelta della coordinata lagrangiana essendo
l’ascissa della proiezione rP su r della posizione di un punto prefissato P di B. Le equazioni del vincolo sono

Q = Q̄, rP − (rP · e) e =cost, ω = 0, vP k e. (17.19)

Moto piano.
Un continuo rigido è soggetto a tale vincolo quando tre dei suoi punti materiali, P1 , P2 , P3 , (non allineati)
sono costretti a giacere in un certo piano euleriano π ⊂ P di normale n. Lo stato del sistema è caratterizzato
dalla posizione di uno dei tre punti, per esempio P1 , e da una rotazione intorno ad n: tale rotazione può
essere caratterizzata fissando una retta r in π e misurando l’angolo fra la retta r ed il segmento (rP2 − rP1 ) .
Il sistema ha dunque tre gradi di libertà ed il vincolo applicato molteplicità tre.

Molteplicità di vincoli applicati in presenza di vincoli preposti.


Prendiamo spunto dall’ultimo esempio di vincolo per far notare al lettore che la molteplicità (apparente)
dei vincoli applicati (definita come numero di gradi di libertà da esso annullati) dipende dagli eventuali
vincoli che possono essere stati preposti al sistema e di cui bisogna tenere conto. Se infatti applichiamo una
cerniera sferica nel punto P1 di un continuo B già vincolato ad avere un moto piano, risultano impedite
anche le traslazioni di P1 parallele a π: B avrà un solo grado di libertà e la cerniera avrà una molteplicità
(apparente) due. Questa circostanza è determinata dal fatto che le traslazioni in direzione ortogonale a π
sono impedite due volte: la prima dall’applicazione del vincolo moto piano, la seconda dall’applicazione del
vincolo cerniera. Analogamente quando sia preposto il vincolo moto piano la molteplicità (apparente) del glifo
è due, la molteplicità (apparente) del carrello (vincolato a muoversi seguendo un piano) uno ed una cerniera
sferica è indistinguibile da una cilindrica. Ovviamente quando applicati ad un continuo rigido già soggetto
ad un vincolo di moto piano, i vincoli cerniera cilindrica e glifo precedentemente considerati hanno un asse di
rotazione ed una direzione di scorrimento rispettivamente parallela ad n o giacente in π : in caso contrario al
continuo cui sono applicati non restano gradi di libertà.

17.4.2 Moti rigidi piani. Centro istantaneo di rotazione.


In passato, prima dell’avvento dei moderni strumenti per il calcolo numerico, lo studio della cinematica dei
sistemi di continui rigidi veniva effettuato per mezzo di grafici e/o calcoli manuali. Per rendere possibile la
soluzione dei problemi matematici posti era necessario che le strutture studiate godessero di molte proprietà
di simmetria e che alcune delle loro parti fossero soggette al vincolo di moto piano.
In questa sottosezione ci occupiamo brevemente dello studio delle proprietà più notevoli degli atti di moto
rigido piani per rispondere a due necessità: innanzitutto fornire al lettore degli strumenti di analisi strutturale
che sono tuttora utili nella progettazione e poi per illustrare il concetto di vincolo, introdotto nelle sezioni
precedenti.
204 CAPITOLO 17. DEFORMATICA

Consideriamo un atto di moto rigido piano. La formula di rappresentazione (16.35) si riduce a

v(pP ) = v(pO ) + λn ∧ (pP − pO ), ∀P ∈ B, (17.20)

dove v(pO ) e quindi v(pP ) sono parallele a π ed n⊥π.


La (17.20) comporta che, in un moto piano, tutte le rette di particelle materiali di B ortogonali a π
hanno la stessa velocità e che l’insieme dei punti materiali di B che in un dato istante hanno posizione in π
continueranno ad averla in tutti gli istanti successivi.
Si chiama centro istantaneo di rotazione in un moto piano il posto c ∈ π tale che in esso la velocità
data dalla (17.20) è nulla.
Che la definizione data sia ben posta è assicurato dalla seguente:

Proposizione 245 Nota la velocità v(pO ), con pO ∈ π, e se λ 6= 0 (cioè se il moto non è puramente
traslatorio) la posizione del punto c ∈ π è data dalla

c − pO = λ−1 n ∧ v(pO ). (17.21)

Dimostrazione Si consideri la (17.20), ponendo v(c) = 0. Si moltiplichi poi l’uguaglianza ottenuta


vettorialmente a sinistra per n, ottenendo

n ∧ v(pO ) = −λn ∧ n ∧ (pP − pO ).

L’asserto è banalmente ottenuto quando si noti che

∀v kπ n ∧ v kπ e (n ∧ v) · v =0.

All’espressione (17.21) può essere dato significato anche quando λ = 0: il centro istantaneo di rotazione
è all’infinito, nel piano π e nella direzione ortogonale a v(pO ). Infatti se, secondo i metodi della geometria
proiettiva, definiamo i punti all’infinito in un piano π come le classi di equivalenza delle direzioni parallele in
π allora il centro istantaneo di rotazione è definito anche per moti traslatori piani.
La seguente proposizione permette di determinare il centro istantaneo di rotazione di un atto di moto
piano decomponendolo additivamente in moti piani i cui centri di rotazione siano noti.

Proposizione 246 Consideriamo un atto di moto rigido piano composto, cioè somma di due atti di moto
rigido piani con centri istantanei di rotazione rispettivamente dati da c1 e c2 . Il centro di rotazione dell’atto
di moto composto si trova sulla retta congiungente c1 e c2 .

Dimostrazione Si rappresentino i due atti di moto per mezzo delle

vi (pP ) = v(pOi ) + λi n ∧ (pP − pOi ) i = 1, 2.

La dimostrazione si ottiene nel caso in cui entrambi le λi siano non nulle rappresentando gli atti di moto
addendi rispetto ai loro centri di rotazione

v(pP ) = λ1 n ∧ (pP − c1 ) + λ2 n ∧ (pP − c2 ), (17.22)

e notando che il suo centro di rotazione c verifica la relazione (ottenuta moltiplicando vettorialmente la
precedente per n)
λ1 (c − c1 ) = −λ2 (c − c2 ). (17.23)
Nel caso in cui λ1 → 0 la (17.21) implica che nel limite (cioè quando il moto è traslatorio) allora il centro
di rotazione si trova all’infinito nella direzione ortogonale a v(O). Quindi se λ1 = 0 e λ2 6= 0, cioè se c1 è
all’infinito in una direzione e allora la (17.22) diventa

v(pP ) = α1 n ∧ e + λ2 n ∧ (pP − c2 ), (17.24)

e quindi il centro di rotazione del moto composto è localizzato dalla

λ2 (c − c2 ) = −α1 e, (17.25)

che prova l’asserto nel caso considerato. Siano infine entrambi i coefficienti λi = 0, cioè siano sia c1 e c2 punti
all’infinito nelle direzioni e1 ed e2 . Allora l’atto di moto composto è una traslazione cioè ha centro di rotazione
all’infinito, che ovviamente appartiene alla retta all’infinito (definita, in geometria proiettiva, come l’insieme
dei punti all’infinito).
17.4. SISTEMI ARTICOLATI DI CONTINUI RIGIDI. 205

Continuo rigido in moto piano vincolato a due carrelli.


Consideriamo un continuo rigido B vincolato ad avere un moto piano. Siano P1 e P2 due punti materiali di B
cui sono applicati due carrelli c1 e c2 con rette di scorrimento r1 ed r2 . L’atto di moto rigido permesso a B dal
carrello ci ha centro istantaneo di rotazione sulla retta ri0 per pPi ortogonale ad ri (i = 1, 2). Conseguentemente
l’atto di moto permesso dall’insieme dei due carrelli ha centro nel punto (eventualmente all’infinito se le rette
ri0 sono parallele) r10 ∩ r20 . Se i due carrelli hanno rette di scorrimento entrambe parallele alla direzione e e
sono applicati a due punti distinti di B allora l’atto di moto che essi permettono è una traslazione parallela
ad e : in questo caso la loro applicazione congiunta è equivalente all’applicazione di un glifo.

Continuo rigido in moto piano vincolato ad un carrello ed ad un glifo.


Consideriamo un continuo rigido B vincolato ad avere un moto piano. Siano applicati ai punti P1 e P2 di
B rispettivamente un glifo g ed un carrello c e siano n1 ed n2 le normali alle loro rette di scorrimento. Un
atto di moto non nullo permesso dai vincoli applicati deve avere centro di rotazione il punto all’infinito n1
che deve anche appartenere alla retta di direzione n2 che passa per il posto pP2 . Questa condizione può essere
verificata se e soltanto se n1 k n2 . Di conseguenza è possibile solo una delle due alternative: i) nessun atto di
moto è permesso a B (se n1 / n2 ), ii) sono permessi infinito ad uno atti di moto traslatori paralleli ad n1 (se
n1 k n2 ).

Continuo rigido in moto piano vincolato ad n carrelli.


Siano applicati a B, continuo rigido vincolato ad un moto piano, n (n > 2) carrelli ai punti Pi (i = 1, ..n)
ciascuno con retta di scorrimento di normale ni . Sia ri la retta passante per pPTi e di direzione ni . È possibile
solo una delle due alternative: i) nessun atto di moto è permesso a B (se ri = ∅), ii) sono permesse
T i=1,..n
infinito ad uno rotazioni intorno al punto p (se ri = p).
i=1,..n

17.4.3 Vincoli interni.


I vincoli considerati fino ad ora restringono l’insieme delle configurazioni consentite ad un singolo continuo
rigido. Tuttavia le strutture sono, in generale, costituite da più corpi collegati non solo al mondo esterno (il
suolo, quando si considerano strutture di interesse nell’ingegneria civile, la carlinga se si considerano ali ecc.)
ma anche fra di loro. Quegli apparati vincolari che determinano delle relazioni fra gli stati permessi a due
o più corpi sono detti interni. La seguente definizione fornisce una caratterizzazione della classe dei vincoli
interni.
Consideriamo un insieme S di n continui rigidi Bi (i = 1, . . . , n) e siano qai (a = 1, . . . , 6) una scelta di
coordinate Lagrangiane per ciascuno di essi. Si dice vincolo interno di molteplicità k un vincolo della forma
¡ ¢
fl qai = 0, l = 1, . . . , k,

la cui matrice Jacobiana ha rango massimo e tale che

∀q̄ai permesso, ∀l, ∃ (i1 , a1 , i2 , a2 ) con i1 6= i2 →


¯ ¯ (17.26)
∂fl ¯¯ ∂fl ¯¯
6= 0 e 6= 0.
∂qai11 ¯qai =q̄ai ∂qai22 ¯qai =q̄ai

Questa condizione si può esprimere affermando che l’apparato vincolare è tale da generare dipendenza tra
i gradi di libertà di almeno una coppia di continui rigidi definendo una relazione tra almeno una coppia di
parametri lagrangiani riferiti ai suddetti continui.
Si noti che in presenza di un vincolo interno uno stato qai (o rispettivamente un atto di moto) del generico
continuo Bi può essere permesso o proibito a seconda di quale stato sia assunto da (risp. quali atti di moto
stiano compiendo) gli altri continui costituenti S.
Per illustrare la definizione data presentiamo alcuni esempi di vincoli interni.

Cerniera interna.
Si considerino due punti sostanziali P1 e P2 rispettivamente appartenenti a due continui rigidi B1 e B2 .
Possiamo caratterizzare lo stato dei due continui per mezzo delle coordinate lagrangiane

rP1 , rP2 , ϕ1 , θ1 , ψ 1 , ϕ2 , θ2 , ψ 2 , (17.27)


206 CAPITOLO 17. DEFORMATICA

che rappresentano la posizione dei punti P1 e P2 e gli angoli di Eulero che caratterizzano l’assetto di B1 e B2 .
Una cerniera interna applicata ai punti P1 e P2 è un vincolo che impone la condizione

rP1 = rP2 . (17.28)

Quindi una cerniera interna, lasciando indipendenti gli assetti dei continui che collega, assicura che i due punti
di contatto hanno sempre la stessa posizione: la sua molteplicità è tre. Quando, però, sia preposto il vincolo
moto piano ai continui B1 e B2 la sua molteplicità si riduce a due.
Se invece la cerniera interna è applicata ad n continui rigidi nei punti Pi (i = 1, ..., n) allora essa, lasciando
indipendenti gli assetti di tutti i continui che collega, è rappresentata dalle equazioni

rP1 = rPi , i = 2, ..., n, (17.29)

e quindi la sua molteplicità è 3 (n − 1) . Di nuovo, nel caso in cui tutti i continui siano già soggetti al vincolo
di moto piano, si ha che la molteplicità si riduce a 2 (n − 1) .

Glifo interno piano.


Consideriamo due continui rigidi B1 e B2 soggetti al vincolo moto piano relativamente ad un medesimo piano
euleriano π. Siano R1 ed R2 due rette di particelle sostanziali rispettivamente di B1 e B2 , tali che le rette
r(Ri ) formate dalle posizioni occupate dai punti di Ri in una data configurazione (e quindi, per il vincolo moto
piano, in tutte le altre) giacciano in π. Scegliamo, infine, una direzione e in π e siano τ 1 , τ 2 rispettivamente
i versori delle rette r(R1 ) ed r(R2 ). Se Pi ∈ Ri (i = 1, 2) lo stato dei due continui può essere caratterizzato
dalle sei coordinate lagrangiane (si ricordi che la posizione di Pi nella situazione considerata è caratterizzata
da due parametri scalari)

θ1 = cos−1 (e · τ 1 ) , θ2 = cos−1 (e · τ 1 ) , rP1 , rP2 . (17.30)

Chiameremo glifo interno di rette di scorrimento R1 ed R2 il vincolo dato dalle equazioni

θ1 = θ2 , |(rP2 − rP1 ) · e| = krP2 − rP1 k cos θ1 . (17.31)

Un glifo interno impone la sovrapposizione spaziale 3 di due rette di particelle sostanziali dei continui cui è
applicato. Equivalentemente si può dire che impedisce le variazioni dell’assetto relativo dei due continui e
che costringe un punto materiale del secondo continuo ad piazzarsi sempre su una retta sostanziale del primo
continuo. Ovviamente la molteplicità di un glifo interno applicato a due continui già soggetti al vincolo di
moto piano è due.

Carrello piano collegato ad n continui.


Consideriamo n continui rigidi Bi (i = 1, .., n) soggetti al vincolo di moto piano. ed n loro punti sostanziali
Pi . Detta γ la sua curva (euleriana) di scorrimento (di equazione f (rP ) = 0), il vincolo carrello piano collegato
ad i punti Pi è rappresentato dalle equazioni

f (rP1 ) = 0, rPi = rP1 i = 2, .., n. (17.32)

La sua molteplicità è ovviamente 2 (n − 1) + 1.

17.4.4 Esempi di sistemi vincolati.


In questa sezione consideriamo alcuni sistemi vincolati: a seconda di quanti siano i gradi di libertà (g.d.l.)
residui g (cioè quanti parametri lagrangiani sono necessari a caratterizzare lo stato del sistema risultante dal-
l’applicazione dei vincoli) e della dimensione dello spazio vettoriale degli atti di moto permessi d distingueremo
vari casi.
Diremo singolari quei sistemi per cui risulta g 6= d.
3 Più precisamente questa affermazione è espressa dall’equazione

p(R1 ) = p(R2 ) ∀t.


17.4. SISTEMI ARTICOLATI DI CONTINUI RIGIDI. 207

Esempio di sistema singolare.


Si consideri una particella materiale P vincolata a restare su una sfera S. Tale vincolo ha molteplicità 1.
Infatti esso è rappresentato dall’equazione

x2 + y 2 + z 2 − R2 = 0 (17.33)

dove (x, y, z) denotano le coordinate del vettore posizione di P in un sistema di coordinate di origine il centro
della sfera S di raggio R.
Ad esso si aggiunga un altro vincolo di molteplicità 1 che permette tutte le posizioni appartenenti al piano
π, la cui equazione, nel medesimo sistema di coordinate, è data da

ax + by + cz + d = 0. (17.34)

Insieme i due vincoli hanno molteplicità 2 quando la loro intersezione sia una conica non degenere γ. I g.d.l.
residui infatti sono 1, essendo la coordinata lagrangiana ascissa curvilinea lungo γ sufficiente a caratterizzare
lo stato del sistema. Inoltre gli atti di moto permessi a partire dalla posizione permessa p sono velocità
parallele alla retta tangente a γ in p, che è l’intersezione del piano π con il piano tangente ad S in P . T
Tuttavia se π è tangente ad S i g.d.l. residui sono 0, essendo permessa al sistema solo la posizione π S,
mentre gli atti di moto permessi sono ∞2 , cioè tutte le velocità parallele a π. In questo caso il sistema è
singolare perchè per esso vale la relazione:
g 6= d. (17.35)
L’esempio discusso ci permette di osservare che nello studio dei sistemi articolati di corpi rigidi (come in
più generalmente in qualsiasi sistema lagrangiano soggetto a più vincoli) i g.d.l. residui non possono essere
calcolati sottraendo ai g.d.l. di partenza del sistema la somma delle molteplicità dei vincoli applicati.
La precedente affermazione è ovviamente collegata alla seguente altra di natura (apparentemente) più
astratta:

Dato un sistema lagrangiano ad n gradi di libertà, si applichino ad esso due vincoli di moltepli-
cità rispettivamente k1 e k2 . L’insieme di tutte le k1 + k2 equazioni di vincolo unione degli insiemi
delle equazioni di ciascuno dei due vincoli non ha necessariamente una matrice Jacobiana di rango
massimo.

Sistemi con gradi di libertà: macchine e meccanismi.


• Manovellismo di spinta: Si considerino due aste rigide (continui rigidi estesi monodimensionalmente)
Ai (i = 1, 2) già vincolate ad avere un moto piano. Denotiamo Ai e Bi i punti materiali estremi di Ai :
supporremo applicati fra B1 e A2 una cerniera interna, in A1 una cerniera ed in B2 un carrello con retta
di scorrimento r. Il sistema considerato ha un g.d.l. ed è il modello di un apparato che serve a trasformare
un moto rettilineo alterno in moto rotatorio continuo o viceversa. Il sistema, prima dell’applicazione dei
vincoli aveva 6 g.d.l, ad esso sono stati applicati vincoli di rispettivamente molteplicità 2, 2 ed 1.

• Quadrilatero articolato: Si considerino quattro aste rigide Ai (i = 1, ..4) di uguale lunghezza già vincolate
ad avere un moto piano. Se Ai e Bi sono gli estremi di Ai assumiamo che Bi e Ai+1 (A5 ≡ A1 ) siano
collegati da una cerniera cilindrica. Il sistema prima dell’applicazione dei vincoli cerniera aveva 12 g.d.l.
I vincoli applicati hanno ciascuno molteplicità 2, e quindi la somma delle molteplicità dei vincoli applicati
è 8. D’altra parte il sistema quadrilatero articolato ha 4 g.d.l. Infatti il suo stato è caratterizzato per
esempio dalla posizione di A1 , dall’assetto di A1 e dall’angolo formato dalle aste A1 ed A4 . Nell’esempio
considerato il numero dei g.d.l. residui è uguale alla differenza fra i g.d.l. di partenza e la somma della
molteplicità dei vincoli imposti.

• Asta in scorrimento controllato da due glifi: Consideriamo un’asta (in moto piano) le cui estremità
siano vincolate da due glifi le cui rette di scorrimento sono parallele. Dopo l’applicazione di due vincoli
ciascuno di molteplicità 2 il sistema, che in partenza aveva 3 g.d.l., risulta tuttavia avere 1 g.d.l. Nel
caso in esame per annullare 3 g.d.l. non sono stati sufficienti vincoli le cui molteplicità hanno somma 4 :
tuttavia il numero dei g.d.l residui è uguale alla dimensione dello spazio degli atti di moto consentiti.

• Doppio pendolo: Due aste sono collegate fra loro da una cerniera interna, mentre l’estremità libera di
una di esse è incernierata al suolo. Fissata una retta di posti r, lo stato del sistema è caratterizzato dai
due angoli α1 ed α2 formato dagli assi delle due aste con r.
208 CAPITOLO 17. DEFORMATICA

Sistemi cui è consentito un solo stato e nessun atto di moto.


• Arco a tre cerniere piano: Si considerino due aste rigide Ai (i = 1, 2) già vincolate ad avere un moto
piano, e siano Ai e Bi gli estremi di Ai . Supponiamo che una cerniera interna connetta A2 e B1 e che
due cerniere siano applicate in A1 e B2 . Se l’angolo θ fra gli assi delle aste appartiene all’intervallo ]0, π[
allora i vincoli consentono al sistema un solo stato (g = 0) e nessun atto di moto (d = 0). Inoltre la
molteplicità dei vincoli applicati è pari alla somma dei gradi di libertà dei due continui rigidi considerati.

• Arco a tre cerniere spaziale degenere: Un arco a tre cerniere (cilindriche) formato da due aste di uguale
lunghezza in cui θ = 0 è un sistema ad un grado di libertà per cui g = d sebbene la somma delle
molteplicità dei vincoli sia 12 cioè uguale ai g.d.l. dei continui cui sono applicati.

• Asta incastrata alle due estremità: È un sistema per cui g = d = 0. Tuttavia la somma delle molteplicità
dei vincoli applicati è doppia rispetto ai g.d.l. del continuo cui sono applicati.

Sistemi singolari.
• Sistemi senza g.d.l. a cui sono permessi atti di moto: a) Si considerino due aste rigide Ai (i = 1, 2) ,
già vincolate ad avere un moto piano, e siano Ai e Bi gli estremi di Ai . Supponiamo che una cerniera
interna connetta A2 e B1 , che un incastro sia applicato in A1 ed un carrello in B2 ,e che i due segmenti
che rappresentano le posizioni delle due aste siano paralleli. Se la direzione di scorrimento del carrello
in B2 è ortogonale alle aste allora il sistema non ha gradi di libertà ma i vincoli applicati permettono
l’atto di moto rotazione di A2 intorno al punto pA2 = pB1 . In questo caso g = 0, d = 1. Notare che la
somma della molteplicità dei vincoli applicati è pari a 6 (due volte moto piano) + 2 (cerniera interna
applicata in un moto piano) + 3 (incastro applicato in un moto piano) + 1 (carrello applicato in moto
piano) = 12 che è pari al numero dei gradi di libertà di due continui rigidi; b) Un arco a tre cerniere
per cui θ = π è un sistema in cui g = 0, d = 1; c) Un arco a tre cerniere formato da aste di lunghezza
diversa per cui θ = 0 è un sistema in cui g = 0, d = 1.

• Sistema per cui il numero dei g.d.l. ( > 0) è inferiore alla dimensione dello spazio degli atti di moto:
Lo stesso sistema descritto al punto a) precedente a cui si sostituisca all’incastro in A1 un glifo con
direzione di scorrimento parallela a quella del carrello in B2 . Il sistema ha un grado di libertà (come
coordinata lagrangiana si può scegliere, ad esempio, una ascissa lungo la retta di scorrimento del glifo)
ma i vincoli applicati permettono ∞2 atti di moto.

17.5 Strutture Reticolari.


Sistemi di continui rigidi vincolati sono utilizzati spesso come modello di corpi soggetti a fenomeni di defor-
mazione.
Tuttavia non si deve credere tale modello come l’unico modo per descrivere, per mezzo di modelli finito
dimensionali, strutture deformabili.

17.5.1 Barre elastiche.


In questa sezione vogliamo descrivere la cinematica delle cosiddette strutture reticolari. Tali strutture sono
costituite da continui monodimensionali (detti barre) che possono assumere solo configurazioni rettilinee
eventualmente variando la loro lunghezza e quindi non sono continui rigidi . La definizione che segue precisa
la cinematica delle barre.
Chiameremo barra elastica non flessibile e non torcibile (o più brevemente barra) un continuo
monodimensionale la cui forma è sempre un segmento e la cui configurazione è caratterizzata dai sette
parametri lagrangiani
(r(P0 ), Q, L) ∈ IR3 × Ort(IR3 , IR3 ) × IR+ . (17.36)
Il vettore numerico r(P0 ) rappresenta la posizione (rispetto ad un dato osservatore) della particella materiale
P0 della barra, mentre la matrice ortogonale Q (cfr. la (13.273)) ed L ne descrivono rispettivamente l’assetto
e la lunghezza. L’operatore di rotazione Q è necessario a descrivere la rotazione che porta una terna di vettori
solidale all’osservatore in una terna solidale alla barra.
Caratterizzare la configurazione di una barra b significa assegnare la posizione di ogni sua particella
materiale P . Implicitamente nella definizione precedente si assume quindi che sia definita una applicazione
17.5. STRUTTURE RETICOLARI. 209

(detta funzione cinematica) r che associ ad ogni P ∈ b il suo vettore posizione (rispetto un dato osservatore)
quando la configurazione di b sia caratterizzata da una scelta di parametri lagrangiani

{r(P0 ), Q, L} ∈ IR3 × Ort(IR3 , IR3 ) × IR+ . (17.37)

In altre parole una barra modella un corpo snello che si può deformare solo variando la sua dimensione
maggiore cosicchè il suo stato possa essere completamente caratterizzato da tale dimensione, dalla posizione
di una sua particella materiale e dalla sua orientazione spaziale.
Si noti che è possibile caratterizzare la configurazione di confronto di una barra b per mezzo di una terna
di vettori materiali (a1 , a2 , a3 ) con a3 parallelo al segmento “forma di confronto”. Di conseguenza l’assetto
attuale di b si potrà determinare anche per mezzo del piazzamento attuale (χt (a1 ), χt (a2 ), χt (a3 )) (si veda la
sezione 17.6.1 per la definizione della funzione piazzamento) della terna di vettori materiali (a1 , a2 , a3 ).
Si noti che non è sempre necessario introdurre, per descrivere l’insieme delle configurazioni di una barra,
l’intero spazio Ort(IR3 , IR3 ). Per esempio lo spazio S 2 è sufficiente a descrivere tutti i cinematismi che
dobbiamo tenere in conto quando alcune barre sono vincolate fra loro per mezzo di cerniere sferiche. In
questo caso sono prive di qualsiasi effetto le rotazioni di ciascuna barra intorno all’asse χt (a3 ).
Una possibile funzione cinematica per una barra è specificata nel seguente esempio.

Esempio 247 Barra elastica piana b uniformemente deformabile indifferente alle rotazioni intorno l’asse
χt (a3 ). Sia L la lunghezza a riposo della barra considerata. La sua configurazione è fissata dalle posizioni delle
sue estremità A e B. Quindi una possibile scelta delle sei necessarie coordinate lagrangiane è rappresentata
dai vettori delle coordinate delle posizioni rA ed rB
¡ ¢
q = xA xB yA yB zA zB . (17.38)

L’ipotesi di uniforme deformabilità per b, considerando l’ascissa curvilinea s ∈ [0, L] lungo la direzione a3 nella
configurazione di confronto (si assuma che tale ascissa abbia verso positivo dall’estremità A verso quella B)
come etichetta della generica particella P materiale di b, si può tradurre in formule introducendo la seguente
funzione cinematica:
s
rP (s) = rA + (rB − rA ) . (17.39)
L

17.5.2 Strutture reticolari, ovvero sistemi di barre elastiche.


Consideriamo un insieme di barre vincolate fra loro ed al mondo esterno solo per mezzo di cerniere sferiche.
Chiameremo tale insieme struttura reticolare se tutte le cerniere sono applicate solo alle particelle materiali
“estremità delle barre”. Se ogni barra dell’insieme considerato è soggetta al vincolo moto piano, tutte rispetto
il medesimo piano π,allora la struttura è detta piana. Ogni cerniera interna di una struttura reticolare è detta
anche nodo.
La proposizione seguente permette di determinare una utile scelta di parametri lagrangiani per determinare
le configurazioni ed il numero di gradi di libertà di una struttura reticolare:

Proposizione 248 Sia data una struttura reticolare formata da n aste bi , i = 1, ..n, e da m nodi, ciascuno
di vettore posizione rj , j = 1, .., m, rispetto ad un dato osservatore. Ogni configurazione di una struttura
reticolare può caratterizzarsi per mezzo di una scelta dei vettori rj . Il modello struttura reticolare ha quindi
dimensione 3m, nel caso generale, e dimensione 2m nel caso piano.

Dimostrazione La dimostrazione di quanto affermato è semplice. Infatti, nota la posizione di ogni nodo
della struttura, risulta determinata la posizione di ogni estremità delle barre bi , dal momento che le estremità
non vincolate da cerniere interne hanno posizione assegnata essendo vincolate per mezzo di cerniere al mondo
esterno. Quindi risulta nota sia la lunghezza che l’assetto (come elemento di S 2 ) di ogni barra bi . Si noti
che, poichè i vincoli interni sono tutte cerniere sferiche, la rotazione di ciascuna barra intorno al proprio asse
χt (a3 ) è irrilevante quando si voglia descrivere il comportamento dell’intera struttura.

17.5.3 Espressione lagrangiana dell’energia cinetica per barre.


In un modello finito dimensionale ad ogni configurazione e velocità lagrangiana può associarsi una energia
cinetica. In questa sottosezione vogliamo esprimere l’energia cinetica T per una barra (come introdotta nella
definizione 17.36) in termini delle coordinate delle velocità lagrangiane ri ed ṙi .
Per definizione T è data dall’integrale sul corpo b dell’energia cinetica di ogni suo punto P
Z
1
T = ṙP · ṙP dmP . (17.40)
2 b
210 CAPITOLO 17. DEFORMATICA

dove ṙP e dmP denotano la velocità e la densità di massa in P. Siccome rP dipende dalle posizioni degli
estremi r1 ed r2 come specificato dalla funzione cinematica:

rP = rP (r1 (t), r2 (t)), (17.41)

è possibile esprimere la velocità ṙp in funzione delle velocità degli estremi r1 , r2 :

d ∂rP ∂rP
ṙP = [rP (r1 (t), r2 (t))] = ṙ1 + ṙ2 . (17.42)
dt ∂r1 ∂r2

Ne segue che:
µ ¶ µ ¶
∂rP ∂rP ∂rP ∂rP
ṙP (t) · ṙP (t) = ṙ1 + ṙ2 · ṙ1 + ṙ2 (17.43)
∂r1 ∂r2 ∂r1 ∂r2
"µ ¶T # "µ ¶T # "µ ¶T #
∂rP ∂rP ∂rP ∂rP ∂rP ∂rP
= ṙ1 · ṙ1 + ṙ2 · ṙ2 + +2ṙ1 · ṙ2 .
∂r1 ∂r1 ∂r2 ∂r2 ∂r1 ∂r2

L’energia cinetica acquista quindi la seguente forma:


"Z µ ¶T #
∂rP ∂rP
T = ṙ1 · (s) ds ṙ1
b ∂r1 ∂r1
"Z µ ¶T # "Z µ ¶T #
∂rP ∂rP ∂rP ∂rP
+ ṙ2 · (s) ds ṙ2 + 2ṙ1 · (s) ds ṙ2 , (17.44)
b ∂r2 ∂r2 b ∂r1 ∂r2

dove il campo (s) rappresenta la densità di massa per unità di linea della barra b nella configurazione di
confronto.
Se supponiamo ora esplicitamente l’ipotesi di uniforme deformabilità come espressa dalla (17.39), sono
allora immediate seguenti relazioni (1I rappresenta il tensore identità definito nello spazio delle velocità
lagrangiane):
∂rP (s) ³ s´ ∂rP (s) s
= 1− 1I, = 1I. (17.45)
∂r1 L ∂r2 L
Calcolando successivamente i seguenti integrali
Z µ ¶T Z L³
∂rP ∂rP s ´2 L
ds = 1− 1Ids = 1I,
b ∂r1 ∂r1 0 L 3
Z µ ¶T Z L ³ ´2
∂rP ∂rP s L
1Ids = 1Ids = 1I, (17.46)
b ∂r2 ∂r2 0 L 3
Z µ ¶T Z L ³ ´³ ´
∂rP ∂rP s s L
ds = 1− 1Ids = 1I,
b ∂r1 ∂r 2 0 L L 6

l’energia cinetica T può in definitiva essere rappresentata per mezzo di una matrice a blocchi
⎡ ⎤
∙ ¸ 1 ∙ ¸
L ṙ1 ⎢ 1I 2 1I ⎥ ṙ1
T = ·⎣ 1 ⎦ , (17.47)
3 ṙ2 1I 1I ṙ2
2
o nelle forme esplicite:

L³ ´
T = kṙ1 k2 + kṙ2 k2 + ṙ1 · ṙ2
6 Ã !
° °2
L °° ṙ1 + ṙ2 ° 1
° + kṙ1 − ṙ2 k . 2
= (17.48)
3 ° 2 ° 4

La seconda delle ultime uguaglianze permette di rappresentare l’energia cinetica di una barra uniforme-
mente deformabile in termini dell’energia cinetica legata al moto del baricentro e dell’energia cinetica dovuta
alla velocità di deformazione della barra stessa.
17.6. CINEMATICA DEI CONTINUI TRIDIMENSIONALI. 211

17.6 Cinematica dei continui tridimensionali.


In questa sezione vogliamo approfondire alcune delle considerazioni e dei concetti sviluppati nella sezione
16.7.1, limitando l’attenzione ai continui estesi tridimensionalmente.

17.6.1 Funzione piazzamento per continui di Cauchy.


Sia dato un continuo esteso tridimensionalmente B, ed indichiamo con P una sua generica particella materiale.
Scelta una configurazione di confronto denotiamo con XP la posizione in essa assunta da P. In generale
utilizzeremo la posizione XP per identificare P e quando non ci sarà possibilità di confusione non distingueremo
fra il concetto di particella materiale e quello di sua posizione nella configurazione di confronto.
La funzione piazzamento χt associa ad XP la posizione xP assunta all’istante t dal punto P. L’insieme
delle posizioni di tutte le particelle di B è all’istante t detta configurazione attuale.
Seguendo le idee di Cauchy ci limiteremo a formulare un modello di una particolare classe di fenomeni che
interessano i corpi modellati per mezzo di continui tridimensionali: non cerchiamo quindi di descrivere quelle
evoluzioni in cui si producono tagli o dislocazioni nei corpi o in cui si producono brusche concentrazioni di
materia. Introduciamo quindi la seguente
Diremo continuo tridimensionale di Cauchy un continuo tridimensionale per il quale i) è possibile
scegliere come configurazione di confronto regioni regolari dello spazio puntuale euclideo tridimensionale e ii)
sono possibili solo piazzamenti che siano diffeomorfismi fra la configurazione di confronto e quella attuale. In
formule
χt : XP ∈ C ∗ → xP ∈ Ct , (17.49)
con
F := Gradχt tale che det F > 0. (17.50)
¡ 1 2 3¢
Introdotto un sistema di coordinate cartesiane ortogonali X , X , X per individuare ¡ i punti
¢ della con-
figurazione C ∗ (coordinate referenziali) e similmente un sistema di coordinate x1 , x2 , x3 per la confi-
gurazione Ct (coordinate spaziali), ed introdotte le basi associate (cfr. sezione 14.4) (O, (E1 , E2 , E3 )) ed
(o, (e1 , e2 , e3 )) è possibile riguardare i vari campi scalari, vettoriali e tensoriali come funzioni delle introdotte
coordinate. Indicheremo con
XP − O= X =X i Ei , xP − o= x =xi ei , (17.51)
i vettori posizione di una particella materiale P che occupa il posto XP in C ∗ e xP in Ct . Si indica con
l’introdotto operatore Grad il gradiente rispetto alle coordinate X i del punto P nella configurazione di
confronto; il campo tensoriale Gradχt si rappresenta come (cfr. (14.310)1 )

∂ χt i (XP )
Gradχt (XP ) = (ei ⊗ Ej ) . (17.52)
∂X j
La matrice Jacobiana relativa alla applicazione F è ovviamente data da
∂ χt i (XP )
F ij = . (17.53)
∂X j
Si noti che tale operatore associa ad un vettore materiale in C ∗ un vettore materiale in Ct . La richiesta
det F > 0, stante la proposizione 208, assicura l’esistenza dell’inversa di F in ogni intorno di XP :

F−1 = gradχ−1
t , (17.54)

dove grad è l’operatore gradiente rispetto alle coordinate spaziali xi . La rappresentazione nei sistemi di
coordinate spaziale e referenziale è data da
¡ ¢−1
−1 ∂ χt i (xP )
F (xP ) = j
(Ei ⊗ ej ) . (17.55)
∂x
Ricordiamo che i) una funzione è un diffeomorfismo quando essa è continua, a derivate continue e quando
la sua applicazione Jacobiana è non singolare ed a determinante positivo e ii) un sottoinsieme di uno spazio
puntuale affine è una regione regolare quando abbia volume non nullo, sia la chiusura di insiemi aperti e abbia
come frontiera delle superfici bidimensionali regolari ad area non nulla e dotate quasi ovunque di normale.
L’ipotesi di continuità della χt si può interpretare da un punto di vista meccanico affermando che ci
limitiamo a considerare piazzamenti attuali del continuo B che non producono tagli o dislocazioni a partire
dalla considerata configurazione di confronto. Per dare una interpretazione dell’ipotesi di differenziabilità sarà
più opportuno sviluppare ulteriormente la nostra trattazione.
212 CAPITOLO 17. DEFORMATICA

Talvolta, con un abuso di notazione che può confondere (o anche far inorridire) un matematico della scuola
del Bourbaki4 , si denota la applicazione Jacobiana F e la sua inversa con il simbolo

F = Gradx, F−1 = gradX,

senza indicare esplicitamente la variabile tempo e confondendo gli elementi del codominio della funzione con
la funzione medesima.

17.6.2 Derivata materiale.


Sia
Ψ : (X, t) ∈ C ∗ ×IR 7→ Ψ (X, t) ∈ IR, (17.56)

un campo scalare materiale. La derivata di Ψ rispetto a t eseguita tenendo fissa la posizione X della particella
materiale XP ∈ C ∗
dΨ ∂Ψ
(X, t) =: Ψ̇ (X, t) = (X, t) , (17.57)
dt ∂t
è detta derivata materiale di Ψ. Utilizzando il trasporto χt è possibile introdurre la rappresentazione
spaziale od euleriana di Ψ:
¡ ¢
ΨS (x, t) := Ψ χ−1
t (x) , t , (17.58)

(si noti che la velocità euleriana introdotta nella (16.8) è la rappresentazione spaziale della velocità lagrangiana
introdotta nella (16.7)). Utilizzando la regola di derivazione delle funzioni composte e tenendo presente le
(16.6), (16.7), (16.8), la derivata materiale di ΨS è data da

∂ΨS ∂ΨS (x, t) ∂χit (X)


Ψ̇S (x, t) = Ψ̇S (χt (X) , t) = (x, t) + i
∂t ¡ −1 ∂x ¢ ∂t
i
∂ΨS ∂ΨS (x, t) ∂u χt (x) , t
= (x, t) +
∂t ∂xi ∂t µ ¶
∂ΨS ¡ −1 ¢ ∂ΨS
= (x, t) + gradΨS · vL χt (x) , t = + gradΨS · v (x, t) . (17.59)
∂t ∂t

Analogamente, se Ψ è un campo materiale a valori vettoriali, la derivata materiale della sua rappresen-
tazione spaziale ΨS è data da

∂ΨS
Ψ̇S (x, t) = (x, t) + [gradΨS (v)] (x, t) . (17.60)
∂t

17.6.3 Tensore di deformazione.


L’applicazione lineare rappresentata da F quando sia fissata una data particella materiale XP è detta tensore
di deformazione in XP .
Dato che un diffeomorfismo è una funzione differenziabile, possiamo rappresentare la variazione della χt
con lo sviluppo di Taylor al primo ordine:

χt (XP + dX) = χt (XP ) + [F(XP )] (dX) + o(dX), (17.61)

dove dX rappresenta una variazione infinitesima di posizione nella configurazione di confronto, variazione che
ci permette di considerare una particella materiale vicina alla particella P ed F è un’applicazione lineare; più
precisamente essa rappresenta il differenziale di χt .
Per una discussione più approfondita del concetto di differenziale di una funzione definita in uno spazio
puntuale euclideo si rinvia alla sezione 14.3.
4 Nicolas Bourbaki è stato un generale francese il cui nome è stato utilizzato come pseudonimo da un gruppo di matematici

francesi ed americani nella loro serie monumentale di testi di sistemazione della matematica moderna. Il loro scopo dichiarato era
di fondare tutte le matematiche in maniera rigorosa, precisa ed esauriente. Sebbene questa scuola abbia influenzato enormemente
il pensiero matematico contemporaneo bisogna dire che non è riuscita a portare a termine la sua opera. Infatti la teoria delle
equazioni differenziali a derivate parziali ha fino ad ora resistito ad ogni tentativo di formulazione Bourbakista.
17.6. CINEMATICA DEI CONTINUI TRIDIMENSIONALI. 213

Rappresentazione coordinata del tensore di deformazione.


Scegliamo due sistemi di coordinate (a priori distinti) ¡sufficienti
¢ a caratterizzare le posizioni nella configurazioni
i
di confronto
¡ ¢ ed attuale del continuo B. Siano quindi Y la terna di numeri reali che caratterizza la posizione
XP e y i quella che caratterizza ¡la posizione
¢ x P . Il piazzamento
¡ i¢ χt può rappresentarsi per mezzo di una
i
funzione che associa alle coordinate Y le coordinate y ¡ . Tuttavia¢ poichè la funzione χt è un diffeomorfismo,
la funzione che associa alla posizione x¡P le¢ coordinate Y i determina anche essa un sistema di coordinate
nella configurazione attuale. Il sistema Y i di coordinate è detto lagrangiano e le ¡ sue
¢ linee coordinate sono
dette curve materiali. Analogamente associare alla posizione XP le coordinate y i equivale ad introdurre
un sistema di coordinate attuali nella configurazione di confronto.
Possiamo quindi affermare che, da un punto di vista matematico, studiare l’insieme delle deformazioni di
un continuo a partire da una data configurazione di confronto equivale a studiare l’insieme dei possibili sistemi
di coordinate che si possono introdurre nelle configurazioni di confronto ed attuale. Quindi da un punto di
vista matematico la teoria delle deformazioni di un continuo tridimensionale può essere riguardata come una
parte della geometria differenziale5 .

Piazzamenti di vettori e volumi infinitesimi di particelle materiali.


Si noti che, fissata una configurazione confronto di un continuo tridimensionale, mentre una particella materiale
è associata ad una posizione, la variazione di particella materiale è associata ad un vettore di particelle
materiali (traslazione nella configurazione di confronto).
È quindi opportuno ribadire che mentre χ trasporta posizioni, F trasporta vettori: l’applicazione lineare
F associa al vettore traslazione dalla particella materiale XP alla particella materiale XP + dX la traslazione
dalla posizione attuale della particella XP alla posizione attuale della particella XP + dX. In formule:

χt (XP + dX) − χt (XP ) ≈ [F(XP )] (dX) . (17.62)

L’applicazione F calcolata nel punto XP permette di determinare il piazzamento attuale di vettori infinitesimi
di particelle materiali aventi origine in XP . Nel seguito, ove possibile, di eviterà di esplicitare la dipendenza
di F dal punto materiale XP .
Consideriamo tre vettori infinitesimi ui , i = 1, 2, 3, applicati in XP . Come è noto dalla sezione 13.2, il
prodotto triplo [u1 · (u2 ∧ u3 )] rappresenta il volume del parallelepipedo U di spigoli i vettori ui . Stante la
(17.62) l’insieme delle particelle materiali in U si piazzerà nella configurazione attuale nel parallelepipedo di
spigoli i vettori F (ui ) , il cui volume è dato dal prodotto triplo

F (u1 ) · (F (u2 ) ∧ F (u3 )) = (det F) [u1 · (u2 ∧ u3 )] . (17.63)

Nella derivazione della precedente uguaglianza si è utilizzata la definizione di determinante data nella
(13.57). La relazione ottenuta con ragionamenti euristici6 suggerisce la validità della seguente

Proposizione 249 Dato un diffeomorfismo f definito in un dominio D incluso in uno spazio puntuale
euclideo n-dimensionale En a valori in En e detto F il suo differenziale vale la seguente formula, detta del
cambiamento di variabile per il calcolo degli integrali:
Z Z
dV = det FdV. (17.64)
f (D) D

Ovviamente (si ricordino le considerazioni svolte nel Capitolo 15 ed il brano, ivi citato, de Il Metodo di
Archimede di Siracusa) le considerazione qui svolte non sono una dimostrazione della precedente proposizione,
ma ne suggeriscono l’enunciato. Una dimostrazione rigorosa può essere trovata, per esempio, nel testo di analisi
[20].
La citata proposizione, quando interpretata nell’ambito della teoria dei continui tridimensionali deforma-
bili, insieme alle considerazioni sviluppate in questa sottosezione, permette una suggestiva interpretazione del
tensore di deformazione spiegando in particolare la condizione (17.50). Infatti richiedere che una data parte
del continuo abbia volume positivo nella configurazione attuale se e soltanto se ha volume positivo in quella
referenziale è equivalente, stante la (17.64), a richiedere che

det F > 0 ∀XP ∈ C ∗ . (17.65)


5 Da questa osservazione sono partiti Ricci e Levi-Civita nella loro risistemazione della Meccanica Classica e Relativistica.
6 Solo recentemente è stato possibile sviluppare una teoria matematica (chiamata Analisi Non-Standard) che permette di
dimostrare rigorosamente teoremi utilizzando in maniera non contraddittoria il concetto di grandezza infinitesima.
214 CAPITOLO 17. DEFORMATICA

17.6.4 Il gradiente di velocità.


Cominciamo con il dimostrare la seguente:

Proposizione 250 Siano f ed f campi spaziali rispettivamente a valori scalari ed a valori vettoriali, e siano

fM (·, t) := f (χt (·) , t) , fM (·, t) := f (χt (·) , t) , (17.66)

le rispettive rappresentazioni materiali (vedi la (17.58)). Allora

GradfM = FT (gradf ) ,
(17.67)
GradfM = [gradf ] F.

Dimostrazione Per definizione si ha

fM = f ◦ χt , fM = f ◦ χt . (17.68)

Applicando la regola di derivazione della funzione composta (14.62) si ha

GradfM · v = gradf · [[Gradχt ] (v)] , (17.69)

per ogni vettore spaziale v. Dalle definizioni (17.50), (13.33) la precedente può essere riscritta come

GradfM · v = FT (gradf ) · v, (17.70)

da cui la (17.67)1 in virtù della arbitrarietà di v.


La dimostrazione della (17.67)2 si ottiene in modo del tutto analogo applicando ancora la (14.62) per la
derivazione del campo vettoriale fM .
Diremo gradiente di velocità il campo euleriano definito come

L := gradu̇ =gradv, (17.71)

dove v è la velocità euleriana (cfr. sezione 16.7.2). Dalla proposizione precede