“La Scienza della Meccanica, mio caro Ermodoro, ha molti usi importanti nella vita pratica,
ed è altamente considerata dai filosofi ed attentamente studiata dai matematici, perché ha
il primo posto nello studio degli elementi materiali dell’universo. Essa tratta della stabilità
e del moto dei corpi come effetto dell’azione di forze esterne utilizzando teoremi appropriati
all’argomento. I meccanici della scuola di Erone dividono la Meccanica in Teorica e Tecnica:
la Meccanica Teorica si basa sulla Geometria e l’Aritmetica e comprende l’Astronomia e
la Fisica, quella Tecnica studia l’architettura, l’arte dei metalli, delle rocce e di qualsiasi
cosa che può essere costruito. Colui che fosse addestrato nelle due branche della Meccanica
sarebbe il miglior artefice ed il miglior inventore, possedendo la più versatile delle menti.
Poiché tali doti sono rare nello stesso uomo essi formano i loro studenti seguendo le loro
inclinazioni: 1) i costruttori di potenza meccanica, 2) i costruttori di macchine da guerra, 3)
i costruttori di motori e di pompe idrauliche, 4) i meccanici teorici e sperimentali costruttori
di macchine meravigliose (dimostrative delle leggi della Meccanica) i cui maestri sono Erone
stesso ed Archimede di Siracusa, 5) i costruttori di orologi meccanici. È universalmente
riconosciuto che Archimede sia il solo fra i meccanici che abbia compreso tutte le branche
della Meccanica perché ha potuto applicare la sua mente versatile e genio inventivo a tutti
gli scopi della vita ordinaria tuttavia contribuendo contemporaneamente allo sviluppo della
Geometria e dell’Aritmetica tenendole pure e distinte dalle applicazioni tecnologiche. Perché
si può applicare la Geometria alla Tecnica e con ragione, ma essa per questo non è diminuita
essendo capace di dare contenuto a molte e diverse Tecniche e per questo anzi essa viene
aumentata in significato ed importanza.”
Elementi di Algebra Tensoriale
con
Applicazioni alla Meccanica dei Solidi
I Algebra Tensoriale 1
1 SPAZI VETTORIALI 3
1.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Combinazioni lineari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Sottospazi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Generatori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Dipendenza ed indipendenza lineare. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 BASI E DIMENSIONE 11
2.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Somme, somme dirette e relazione di Grassmann. . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 APPLICAZIONI LINEARI 21
3.1 Definizione e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Esempi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Nucleo ed immagine. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 IKn come modello universale di spazio vettoriale n-dimensionale sul campo IK. . . . . . . . . . 26
3.5 Ulteriori proprietà delle applicazioni lineari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 SISTEMI LINEARI 37
5.1 Premessa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2 Sistemi lineari e teorema di Rouché-Capelli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.3 Sistemi omogenei. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.4 Insieme delle soluzioni di un sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.5 Sistemi di Cramer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.6 Lo spazio delle soluzioni di un sistema omogeneo. . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.7 L’insieme delle soluzioni di un sistema compatibile. . . . . . . . . . . . . . . . . . . . . . . . . . 42
6 DIAGONALIZZAZIONE 45
6.1 Definizioni e prime proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.2 Autospazi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.3 Ricerca degli autovalori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.4 Diagonalizzazione di una matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.5 Molteplicità geometrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
iii
iv INDICE
Bibliografia 91
II Applicazioni 93
11 ANCORA SUI TENSORI 95
11.1 Contrazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
11.2 Prodotto duale tra tensori. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
17 DEFORMATICA 199
17.1 Parametri lagrangiani e gradi di libertà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17.2 Vincoli in modelli finito-dimensionali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.3 Moto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.4 Sistemi articolati di continui rigidi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
17.4.1 Vincoli applicati ad un continuo rigido e loro molteplicità. . . . . . . . . . . . . . . . . . 202
17.4.2 Moti rigidi piani. Centro istantaneo di rotazione. . . . . . . . . . . . . . . . . . . . . . . 203
17.4.3 Vincoli interni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
17.4.4 Esempi di sistemi vincolati. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
17.5 Strutture Reticolari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.5.1 Barre elastiche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
17.5.2 Strutture reticolari, ovvero sistemi di barre elastiche. . . . . . . . . . . . . . . . . . . . . 209
vi INDICE
Bibliografia 313
ix
x
Prefazione alla Parte I
La genesi di queste pagine è da un lato semplice e dall’altro assai inusuale: dovendo approntare un curriculum
per la Laurea Specialistica in Ingegneria per l’Ambiente ed il Territorio (per la Sede di Latina de “La Sapienza”)
con Francesco dell’Isola si è pensato di tenere due corsi (cercando di coordinarne i contenuti, tempi e modalità
di svolgimento) per così dire “paralleli”: uno di Geometria ed uno di Meccanica dei Solidi. Questo volume
nasce, pertanto, dalla necessità di fornire agli studenti un riferimento scritto per i corsi di “Metodi tensoriali
per l’Ingegneria” e di Scienza delle Costruzioni. Naturalmente, come ogni prima stesura, questo testo è
lacunoso e perfettibile. Ogni suggerimento teso a migliorarlo sarà gradito. Agli autori (ed a me in particolare)
corre l’obbligo (ma soprattutto il piacere) di rivolgere un caloroso ringraziamento al Dott. Davide Spinello
che, con paziente lavoro di stesura (ma anche con quegli acuti suggerimenti che caratterizzano gli studenti più
promettenti) ha consentito la pubblicazione di questo lavoro.
Alessandro Bichara
xi
xii PREFAZIONE ALLA PARTE I
Prefazione alla Parte II
Uno dei risultati delle recenti riforme del sistema educativo italiano, ed in particolare di quello universitario,
è che quasi tutti gli studenti hanno perso la capacità di studiare utilizzando i libri di testo. L’abitudine che va
sempre più diffondendosi è quella di affidarsi alla tradizione orale: le lezioni dei docenti, ma anche i racconti
ed i resoconti dei colleghi degli anni precedenti.
Questa circostanza è sintomo di una profonda malattia dell’università italiana ed è prodromo di gravi
difficoltà per la nostra società se è vero, come ampiamente discusso da G. Bigatti nel Capitolo La Matrice di
una nuova Cultura Tecnica del saggio Amministrazione, formazione e professione: gli ingegneri in Italia tra
Sette e Ottocento ([4], Bibliografia relativa alla Parte II), curato da L. Blanco, che la nascita della moderna
figura dell’ingegnere, protagonista dell’inarrestabile progresso tecnologico avvenuto nell’Ottocento, è dovuta
all’abbandono dell’antico modello di insegnamento basato sulla trasmissione orale del sapere.
Lo studente segue, spesso distrattamente, la lezione e ritiene che questo sia sufficiente: nessuno sforzo viene
fatto per fare proprie le idee che il corso intende trasmettere e tutti i tentativi di attirare la sua attenzione sono
trattati con fastidio e talvolta ostilità. L’atteggiamento più diffuso porta a richiedere che questioni complesse
siano esposte brevemente. Mi sono spesso sentito chiedere di spiegare, in due parole, il principio dei lavori
virtuali oppure il metodo degli integrali di Mohr oppure in che cosa consista l’analisi modale di una struttura
(qualche volta anche la teoria delle equazioni differenziali o addirittura il perché sia impossibile dividere per
zero).
Quindi non mi aspetto che molti studenti leggano, addirittura!, questa introduzione. A quei pochi che lo
faranno voglio consigliare di non far sapere assolutamente ai loro colleghi che si sono dedicati a questa strana
attività: non vorrei essere causa di loro problemi di socializzazione.
In realtà mi è accaduto spesso di entrare in polemica discutendo sulle scelte che debbono essere fatte
nel concepire un testo da utilizzare come supporto ad un corso universitario. Alla fine mi sono rassegnato:
viviamo un ciclo storico (di quelli descritti da G.B. Vico) nel quale è alla moda ritenere che le uniche attività
intellettuali utili siano quelle immediatamente dirette alla pratica: ogni sforzo per basare le applicazioni
tecnologiche su solide basi teoriche viene deriso apertamente ed aspramente avversato.
I pericoli per una società nella quale questa tendenza prende il sopravvento sono lucidamente descritti
nel bellissimo saggio di Lucio Russo “La Rivoluzione Dimenticata” ([35], Bibliografia relativa alla Parte II).
Rimandiamo a quel saggio per una approfondita descrizione delle ragioni per le quali si deve resistere alla
citata tendenza.
In questa introduzione si vuole semplicemente affermare esplicitamente quello che sarà sotto gli occhi di
ogni lettore che studierà criticamente le pagine seguenti: l’algebra lineare e tensoriale sono uno strumento
indispensabile per lo studio dei fenomeni descritti dalle teorie meccaniche. Poichè tali teorie sono la base di
molte tecnologie correntemente utilizzate nelle applicazioni ingegneristiche (e questo era noto fin dai tempi
della rivoluzione scientifica ellenistica: si veda ancora il saggio di Russo ed il brano in quarta di copertina)
possiamo concludere che le matematiche sono strumento indispensabile alla pratica ingegneristica.
Questa affermazione è stata considerata infondata in varie epoche e di conseguenza spesso nella storia delle
istituzioni universitarie si è sentita la necessità di semplificare il curriculum formativo degli allievi ingegneri: è
questa stessa storia che ci insegna quali siano gli esiti di tali semplificazioni. Rimandando al citato saggio [4],
si ricordano gli effetti disastrosi sulla qualità del lavoro dei professionisti iscritti all’albo milanese nella prima
metà dell’Ottocento a causa dell’abilitazione alla professione di ingegnere assicurata per mezzo di opportuni
ope legis a tecnici non in possesso di titoli accademici e quindi di una adeguata preparazione teorica ma forti
solo di una lunga attività professionale: la Scuola di Ingegneria Milanese dovette essere rifondata da professori
provenienti da Vienna e Parigi.
È di quell’epoca l’invenzione di un neologismo che molto ha fatto discutere i moderni riformatori: l’agget-
tivo propedeutico ed il sostantivo ad esso associato propedeuticità. Attestato fin dal 1829 questo aggettivo
è definito dal Grande Dizionario Italiano dell’uso (il cosiddetto De Mauro) come segue: propedeutico=che
serve da introduzione ad una scienza. La radice utilizzata è παιs=fanciullo da cui deriva παιδεύω=educo
che insieme al prefisso πρo=prima produce πρoπαίδευσιs=istruzione preventiva attestato in epoca elleni-
xiii
xiv PREFAZIONE ALLA PARTE II
stica. πρoπαιδευτ ικós=propedeutico, sebbene non utilizzato nei testi greci a noi pervenuti, potrebbe essere
stato già coniato in quell’epoca. La ragion d’essere di questo testo e della mia collaborazione con il Prof.
Bichara è riaffermare che nella formazione dell’ingegnere sono indispensabili un numero congruo di discipline
propedeutiche a quelle esclusivamente ingegneristiche più specificatamente applicative.
Mi preme ringraziare qui esplicitamente l’Ing. Davide Spinello per l’impegno che ha profuso nella stesura
di questo testo. Tutti i Capitoli della Parte II sono il risultato di lunghe ed interessanti discussioni che mi
hanno dimostrato la sua cultura e passione per la scienza e che mi hanno molto arricchito: l’Ing. Spinello
deve essere considerato co-autore a tutti gli effetti almeno dei Capitoli 19 e 20 sulle Potenze Virtuali e sulle
Equazioni Costitutive.
Devo anche ringraziare per la loro collaborazione gli ingegneri Giulio Sciarra, Stefano Vidoli, Corrado
Maurini.
Francesco dell’Isola
Parte I
Algebra Tensoriale
1
Capitolo 1
SPAZI VETTORIALI
Evidentemente il simbolo 00 100 che compare nella (1.4) denota l’unità moltiplicativa del campo IK.
Analogamente a quanto appena visto, è possibile definire il prodotto esterno destro di V per IK, quale
applicazione ω 0 : V × IK → V. Se la terna (V, IK, ω 0 ) verifica le proprietà che si ottengono dalle (1.1), (1.2),
(1.3) e (1.4), invertendo l’ordine in cui in esse compaiono gli elementi di IK e di V, diremo che (V, IK, ω 0 ) è
uno spazio vettoriale destro costruito sul campo IK.
In questi appunti, tratteremo soltanto gli spazi vettoriali sinistri, avvertendo che per gli spazi vettoriali
destri valgono proprietà analoghe a quelle degli spazi vettoriali sinistri. Inoltre, preannunciamo sin da ora che
in un numero successivo proveremo che tali due concetti sono sostanzialmente equivalenti.
Nel seguito, quindi, con il termine spazio vettoriale intenderemo sempre sottinteso l’attributo sinistro.
Se VIK è uno spazio vettoriale sul campo IK, diremo vettori gli elementi di V e diremo scalari gli elementi
di IK. In tal caso, diremo proprietà distributiva del prodotto di uno scalare per un vettore rispetto alla
somma di scalari e rispetto alla somma di vettori gli assiomi (1.1) e (1.2), rispettivamente.
Se VIK è uno spazio vettoriale sul campo IK, risultano individuati lo scalare nullo 0 ed il vettore nullo 0,
elemento neutro del gruppo (V, +); al riguardo proviamo ora che:
Proposizione 1 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto dello scalare nullo per un
vettore è il vettore nullo, cioè:
∀v ∈ V, 0v = 0. (1.5)
0v + w = 0v + v − v + w = 0v + 1v − v + w
= (0 + 1)v − v + w = 1v − v + w = v − v + w
= w. (1.6)
3
4 CAPITOLO 1. SPAZI VETTORIALI
Proposizione 2 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto di uno scalare k per il vettore
nullo è il vettore nullo. Inoltre, se il prodotto di k per v è il vettore nullo, almeno uno tra k e v è nullo.
∀k ∈ IK : k0 = 0. (1.7)
e quindi
k0 =k (0v) = (k0) v =0v = 0. (1.9)
Da quanto appena detto e dalla proposizione 1 segue che, dati k ∈ IK e v ∈V, se uno dei due fattori è nullo
si ha
kv = 0. (1.10)
Assumiamo viceversa che sia kv = 0. Se k 6= 0, ∃ k −1 ∈ IK. Moltiplicando ambo i membri della (1.10) per k−1
si ha: ¡ ¢
k −1 (kv) = k −1 0 = 0 ⇒ k −1 k v = 0 ⇒1v = 0 ⇒ v = 0. (1.11)
Proposizione 3 Se VIK è uno spazio vettoriale sul campo IK, allora il prodotto dell’opposto dell’unità molti-
plicativa di IK per un vettore v è l’opposto di v, cioè:
∀v ∈ V, − 1v = −v. (1.12)
Dimostrazione È sufficiente osservare che, a norma della 1 e delle (1.1) e (1.2), risulta:
1.2 Esempi.
Daremo ora alcuni esempi di spazi vettoriali. Se IK è un campo, sia V = IKn , cioè il prodotto cartesiano di
IK per se stesso effettuato n volte; allora V è la totalità delle n-ple ordinate di elementi di IK.
Se x = (x1 , x2 , ..., xn ) e y = (y1 , y2 , ..., yn ) sono due elementi di V è possibile definire la loro somma nel
modo che segue:
x + y = (x1 + y1 , x2 + y2 , ..., xn + yn ). (1.14)
È poi possibile definire il prodotto ”·” di uno scalare k ∈ IK per l’elemento x = (x1 , x2 , ..., xn ) ∈ V nel
modo che segue:
k · x = (kx1 , kx2 , ..., kxn ). (1.15)
Con tali definizioni di somma in V e di prodotto di un elemento di IK per un elemento di V, è possibile
provare che:
Lo spazio vettoriale di cui alla proposizione precedente verrà nel seguito denotato con il simbolo IKn .
Se IR è il campo reale e C è il gruppo additivo dei complessi, allora è subito visto che la terna (C, IR, ·),
ove ”·” è l’ordinario prodotto di un reale per un complesso, è uno spazio vettoriale sui reali.
Analogamente, le terne (C, Q, ·) e (IR, Q, ·), ove “·” è l’ordinario prodotto numerico, risultano degli spazi
vettoriali sul campo razionale.
Se IK è un campo, sia IK[x], l’insieme dei polinomi di una indeterminata x a coefficienti in IK. Rispetto
all’ordinaria somma ”+” tra polinomi, la coppia (IK[x], +) è un gruppo abeliano; se poi ”·” è l’ordinario
prodotto di IK per un polinomio, la terna (IK[x], IK, ·) risulta uno spazio vettoriale sul campo IK; tale spazio
sarà nel seguito denotato con IK[x].
Se F è l’insieme delle funzioni reali di una variabile reale, f e g sono due elementi di F, è possibile definire
la f + g nel modo che segue:
(f + g)(x) = f (x) + g(x). (1.16)
1.3. COMBINAZIONI LINEARI. 5
Con tale definizione di somma la coppia (F, +) risulta un gruppo abeliano, il cui elemento neutro è la
funzione costante identicamente nulla ed in cui l’opposto della funzione f è la funzione −f , così definita:
Possiamo poi definire il prodotto ”·” di un numero reale k per la funzione f di F nel modo che segue:
Con tale definizione la terna (F, IR, ·) risulta uno spazio vettoriale sul campo reale.
Sia VIK uno spazio vettoriale sul campo IK. Diremo che VIK è lo spazio nullo se esso è costituito da un
solo vettore che, allora, necessariamente è il vettore nullo.
1.4 Sottospazi.
Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, diremo che esso è un sottospazio
di V se, e solo se, esso risulta uno spazio vettoriale rispetto alle operazioni definite in V; cioè se, e solo se, W
risulta un sottogruppo abeliano di V ed inoltre il prodotto di uno scalare per un elemento di W è un elemento
di W; osserviamo esplicitamente che in tal caso il prodotto esterno di uno scalare per un vettore di W verifica
necessariamente le (1.1), (1.2), (1.3) e (1.4), poichè tali proprietà sono verificate per il prodotto di uno scalare
per un elemento di V e W è un sottoinsieme di V. In definitiva, tenuto conto delle (A.56), (A.57), (A.58) e di
quanto appena detto, possiamo provare ora che:
Proposizione 5 Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, allora W risulta
un sottospazio di V se, e solo se, sussistono le:
W 6= ∅. (1.20)
v, w ∈ W ⇒ v + w ∈ W. (1.21)
k ∈ IK : v ∈ W ⇒ kv ∈ W. (1.22)
Dimostrazione Se W è un sottospazio, allora esso è un sottogruppo del gruppo V e quindi esso verifica
la (A.57) e la (A.58), cioè la (1.20) e la (1.21); inoltre, il prodotto di uno scalare per un vettore di W deve
appartenere a W, onde la (1.22).
Se invece W verifica le tre proprietà in enunciato, esso verifica la (A.56) e la (A.57); dalla (1.22), per
k = −1, si deduce la (A.58) e quindi W è un sottogruppo di V. Dalla (1.22) si deduce che il prodotto di uno
scalare per un vettore di W è un vettore di W, onde W risulta un sottospazio di V.
Proveremo ora che:
Proposizione 6 Sia VIK uno spazio vettoriale sul campo IK. Se W è un sottoinsieme di V, allora W risulta
un sottospazio di V se, e solo se, sussistono le:
W 6= ∅, (1.23)
h, k ∈ IK : v, w ∈ W ⇒ hv + kw ∈ W. (1.24)
6 CAPITOLO 1. SPAZI VETTORIALI
Dimostrazione In forza della prop. precedente e poichè la (1.20) e la (1.23) sono uguali si tratta di
provare che la (1.24) è equivalente alle (1.21) e (1.22).
Se h, k ∈ IK; v, w ∈ W dalla (1.22) segue che hv e kw ∈ W, onde, per la (1.21), si trae che hv + kw ∈ W,
cioè la (1.24).
Supponiamo ora che valga la (1.24); se h = k = 1, da essa si deduce la (1.21); se invece h = 0, si deduce
la (1.22).
La proposizione precedente si enuncia più suggestivamente dicendo che il sottoinsieme W dello spazio
vettoriale V è un sottospazio di V se, e solo se, esso risulta non vuoto e, contenendo due vettori, contiene ogni
loro combinazione lineare.
Se W è un sottospazio dello spazio vettoriale V scriveremo anche:
W ≤ V. (1.25)
Proviamo che:
Proposizione 7 Sia VIK uno spazio vettoriale sul campo IK. Se W ≤ V, allora necessariamente il vettore
nullo di V appartiene a W, cioè:
W ≤ V ⇒ 0 ∈ W. (1.26)
Dimostrazione Poichè W è un sottospazio di V, allora necessariamente esso risulta non vuoto; sia allora v
∈ W; in forza della (1.22) ogni multiplo di v, secondo uno scalare k, appartiene a W; in particolare, appartiene
a W il prodotto dello scalare nullo per v, cioè (cfr. proposizione 1) il vettore nullo.
Se J è un insieme di indici, sia {Wi : i ∈ J } una famiglia di sottospazi dello spazio vettoriale VIK . Per
l’insieme dei sottospazi della famiglia proveremo ora che:
Proposizione 8 Sia VIK uno spazio vettoriale sul campo IK. Se F = {Wi : i ∈ J } è una famiglia di sottospazi
di V, allora l’intersezione dei sottospazi della famiglia F è necessariamente un sottospazio di V, cioè
\
∀i ∈ J Wi ≤ V ⇒ Wi ≤ V. (1.27)
i∈J
Pertanto, l’intersezione dei sottospazi di F verifica la (1.23). Siano ora h e k due qualsivoglia scalari e siano v
e w due qualsiasi elementi della intersezione dei sottospazi di F. Poichè v e w appartengono alla intersezione
dei Wi , onde la combinazione lineare hv + kw appartiene,
T in forza della prop. 6, a ciascun sottospazio Wi .
Ne segue che tale combinazione lineare appartiene a Wi , che, pertanto, verifica la (1.24). Da quanto detto
i∈J
in forza della prop. 6, si ha l’asserto.
La prop. precedente si enuncia in modo più suggestivo dicendo che l’intersezione di sottospazi di uno
spazio vettoriale è un sottospazio.
Diamo ora alcuni esempi di sottospazi di uno spazio vettoriale:
Se VIK è uno spazio vettoriale sul campo IK, allora esso è un sottospazio di se stesso; il sottoinsieme {0}
di V, costituito solo dal vettore nullo, è un sottospazio di V, che diremo sottospazio nullo.
Sia VIK = IR3 . I seguenti insiemi di IR3 risultano sottospazi vettoriali:
A = {(x, y, z) : x = 0} ,
B = {(x, y, z) : x + y = 0} , (1.29)
C = {(x, y, z) : 2x + 3y + 4z = 0} .
Proposizione 9 Sia J un qualunque insieme di vettori, non vuoto, dello spazio vettoriale VIK . Sia W
l’insieme di tutte le combinazioni lineari di J. Allora W è un sottospazio di V e W contiene J.
Dimostrazione Ogni vettore di J è pensabile come combinazione lineare di se stesso a coefficiente uguale
a ”1”, onde J ⊆ W e, essendo J non vuoto, W verifica la (1.23).
1.5. GENERATORI. 7
Siano ora v e w due vettori di W. Allora, per definizione di W, sia v che w risultano ciascuno combinazione
lineare di un numero finito di vettori di J; cioè, esistono vettori v1 , v2 , ..., vn e w1 , w2 , ..., wm di J e scalari
x1 , x2 , ..., xn ed y1 , y2 , ..., ym tali che risulta:
n
X m
X
v= xi vi w= yj wj . (1.30)
i=1 j=1
Ogni combinazione lineare di v e w a coefficienti h e k (del campo IK), rispettivamente, è allora della forma:
n
X m
X
hv+kw = hxi vi + kyj wj . (1.31)
i=1 i=1
Pertanto, hv+ kw è combinazione lineare dei vettori v1 , v2 , ..., vn e w1 , w2 , ..., wm di J, onde hv+kw
appartiene a W, il quale allora verifica anche la (1.24) e risulta un sottospazio.
1.5 Generatori.
Sia VIK uno spazio vettoriale sul campo IK. Se J è un sottoinsieme di V, risulta individuata la famiglia
F = {Wi : i ∈ J } dei sottospazi di V, ciascuno dei quali contiene J; tale famiglia non è vuota in quanto
almeno V appartiene ad essa. L’intersezione dei sottospazi di F è un sottospazio di V (cfr. prop. 8), che
diremo generato da J e denoteremo con hJi. Evidentemente risulta J ⊆ hJi; infatti essendo J contenuto in
ciascun elemento di F, è necessariamente contenuto nella loro intersezione. Il sottospazio hJi è quindi il ”più
piccolo” sottospazio di V che contiene J.
Se l’insieme J genera hJi diremo che J è un insieme di generatori per hJi e che hJi è generato da J.
Al riguardo proviamo che:
Proposizione 10 Siano VIK uno spazio vettoriale sul campo IK e J un sottospazio di V. Allora, se J = ∅,
necessariamente hJi è il sottospazio nullo di V. Se invece J è non vuoto, allora il sottospazio hJi coincide
con il sottospazio W di V, costituito da tutte le combinazioni lineari di J (cfr. prop. 9).
Dimostrazione Sia F = {Wi : i ∈ J } la famiglia dei sottoinsiemi di V, ciascuno dei quali contiene J;
se J = ∅, allora F è costituita da tutti i sottospazi di V, onde anche il sottospazio nullo {0} ∈ F, onde
hJi = {0}.
Se invece J 6= ∅, allora (cfr. prop. 9) risulta W ∈ F, onde hJi ⊆ W; d’altra parte, poichè J ⊆ Wi ,
(∀i ∈ J ), il sottospazio Wi , contenendo i vettori di J contiene ogni loro combinazione lineare e quindi:
(∀i ∈ J ) W ⊆ Wi ; (1.32)
Pertanto, W risultando contenuto in ogni spazio di F, risulta contenuto nella loro intersezione hJi, cioè
W ⊆ hJi. Poichè avevamo già visto anche hJi ⊆ W, risulta necessariamente hJi = W.
Diamo ora alcuni esempi relativi al concetto di insieme di generatori per un sottospazio:
• Sia VIK = IR3 . Se J = IR3 , allora, ovviamente: hJi = IR3 .
• Se invece J = {e1 , e2 , e3 }, ove e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), allora hJi, dovendo, in forza
della prop. 10, coincidere con la totalità delle combinazioni lineari dei vettori e1 , e2 ed e3 , è ancora
uguale ad IR3 .
• Sia ora J = {e1 , e2 }, allora hJi = {(x, y, 0) : x, y ∈ IR} .
• Sia ora VIK = (F, IR, ·) lo spazio vettoriale delle funzioni reali di una variabile reale. Se J = {sin, cos},
allora hJi è il sottospazio delle funzioni della forma λ sin +µ cos con (λ, µ ∈ IR).
Sia ora J un insieme di vettori (eventualmente infinito) appartenenti allo spazio vettoriale VIK costruito
sul campo IK. Diremo che J è linearmente indipendente se ogni combinazione lineare di J, a coefficienti
non tutti nulli, risulta diversa dal vettore nullo. Diremo invece che J è linearmente dipendente se esiste
una combinazione lineare di J, a coefficienti non tutti nulli che sia uguale al vettore nullo.
Possiamo ora provare che:
Proposizione 11 Siano VIK uno spazio vettoriale sul campo IK e J un sottoinsieme di V. Allora J è
linearmente dipendente se, e solo se, esiste un sottoinsieme I di J che sia linearmente dipendente.
Proposizione 12 Siano VIK uno spazio vettoriale sul campo IK e J un sottoinsieme di V. Se J contiene il
vettore nullo, allora J è necessariamente linearmente dipendente.
Dimostrazione Dalla prop. 2 segue che il vettore nullo è dipendente e quindi J contiene il sottoinsieme
{0} che è dipendente; dalla prop. 11 segue allora l’asserto.
Proposizione 13 Siano VIK uno spazio vettoriale sul campo IK e v1 , v2 , ..., vn vettori indipendenti di V.
Allora, i vettori v1 , ..., vn , vn+1 risultano linearmente dipendenti se, e solo se, vn+1 appartiene al sottospazio
generato da {v1 , v2 , ..., vn }.
Dimostrazione Se vn+1 ∈ hv1 , v2 , ..., vn i, allora è combinazione lineare di v1 , v2 , ..., vn e quindi esistono
scalari x1 , x2 , ..., xn tali che risulti:
Xn
vn+1 = xi vi , (1.34)
i=1
e ne segue:
n
X
vn+1 − xi vi = 0. (1.35)
i=1
Da tale ultima uguaglianza si deduce che la combinazione lineare di v1 , ..., vn , vn+1 a coefficienti rispettivi
−x1 , −x2 , ..., −xn ed 1 è uguale al vettore nullo; poichè i suddetti coefficienti sono non tutti nulli (1 6= 0) i
vettori v1 , ..., vn , vn+1 risultano dipendenti.
Se invece v1 , ..., vn , vn+1 risultano dipendenti, allora esiste una loro combinazione lineare:
n+1
X
xi vi = 0, (1.36)
i=1
con almeno uno tra i coefficienti x1 , ..., xn , xn+1 diverso dallo scalare nullo. Non può risultare xn+1 = 0,
altrimenti uno tra x1 , x2 , ..., xn sarebbe diverso da zero ed inoltre avremmo x1 v1 + x2 v2 + ... + xn vn = 0,
cioè i vettori v1 , v2 , ..., vn sarebbero dipendenti, contro l’assunto. Pertanto xn+1 6= 0; dividendo allora ambo
i membri della (1.36) per xn+1 e con ovvi passaggi otteniamo la:
n
X
−1
vn+1 = −(xn+1 ) xi vi , (1.37)
i=1
Proposizione 14 Siano VIK uno spazio vettoriale sul campo IK e v1 , v2 , ..., vn vettori di V. Allora v1 , v2 , ..., vn
sono linearmente dipendenti se, e solo se, uno tra essi è combinazione lineare di restanti.
Proposizione 15 Sia VIK = (F, IR, ·) lo spazio vettoriale delle funzioni reali di una variabile reale. Le due
funzioni sin e cos di V risultano linearmente indipendenti.
Dimostrazione Si tratta di provare che se λ sin +µ cos (ove λ, µ ∈ IR) è la funzione identicamente nulla
0, allora necessariamente risulta λ = µ = 0. Se
allora è:
∀x ∈ IR, (λ sin +µ cos)(x) = 0(x) = 0. (1.39)
Pertanto, deve essere
∀x ∈ IR, λ sin(x) + µ cos(x) = 0. (1.40)
Dalla (1.40), posto x = 0, si trae λ sin(0) + µ cos(0) = 0; ponendo invece x = π/2, otteniamo λ sin(π/2) +
µ cos(π/2) = 0. Da tali due relazioni, si deduce λ = µ = 0.
10 CAPITOLO 1. SPAZI VETTORIALI
Capitolo 2
BASI E DIMENSIONE
Proposizione 16 Ogni spazio vettoriale non nullo ammette almeno una base. Ogni base dello spazio nullo è
vuota.
Proposizione 17 Ogni base dello spazio vettoriale VIK = IK[x] dei polinomi di una indeterminata x a
coefficienti nel campo IK è necessariamente infinita.
Dimostrazione Procediamo per assurdo. Supponiamo dunque che IK[x] ammetta una base finita B. Se
B = {p1 (x), p2 (x), ..., pn (x)}, siano g1 , g2 , ..., gn i gradi dei polinomi p1 (x), p2 (x), ..., pn (x), rispettivamente.
Poichè B è una base di IK[x] essa genera V ed ogni polinomio di IK[x] è combinazione lineare dei polinomi di
B. Pertanto risulta:
Dalla (2.2) segue subito che, detto g il grado di p(x), necessariamente risulta:
11
12 CAPITOLO 2. BASI E DIMENSIONE
Pertanto ogni polinomio di IK[x] ha un grado non superiore a γ. Però, il polinomio xγ+1 appartiene a IK[x] ed
il suo grado è superiore a γ. Si è così ottenuta una contraddizione, nata dall’aver supposto che V ammetta
una base finita. Pertanto, ogni base di V è necessariamente infinita.
Proviamo ora che:
Proposizione 18 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è un insieme
di vettori di V, B risulta una base per V se, e solo se, ogni vettore di V si scrive in un modo ed in un modo
soltanto come combinazione lineare dei vettori di B.
Dimostrazione Se B è una base, allora i vettori v1 , v2 , ..., vn generano V; pertanto, ogni vettore di V
appartiene a hv1 , v2 , ..., vn i e quindi si scrive in almeno un modo come combinazione lineare di v1 , v2 , ..., vn ;
proviamo ora che tale modo è unico.
Supponiamo allora che risulti, per v ∈ V:
n
X
v = xi vi , (2.4)
i=1
ed anche:
n
X
v= yi vi . (2.5)
i=1
Dalle (2.9) ed (2.10), e poichè il vettore 0 ∈ V si può scrivere in esattamente un modo come combinazione
lineare di v1 , v2 , ..., vn , subito segue:
xi = 0 i = 1, 2, ..., n. (2.11)
Sia ora B = {v1 , v2 , ..., vn } un insieme di generatori dello spazio vettoriale V. Diremo che B è un insieme
minimale di generatori per V se ogni sottoinsieme proprio di B non genera tutto V. In sostanza B è un
insieme minimale di generatori per V se sopprimendo un qualunque vettore di B si ottiene un sottoinsieme di
B che genera un sottospazio di V che non coincide con V.
Se B = {v1 , v2 , ..., vn } è un insieme di vettori indipendenti dello spazio vettoriale V, diremo che B è
un sottoinsieme massimale di vettori indipendenti di V, se B non risulta propriamente contenuto in alcun
sottoinsieme indipendente di V. In sostanza B è un insieme massimale di vettori di V, se comunque preso
v ∈ V, l’insieme {v1 , v2 , ..., vn , v} risulta dipendente.
Proviamo ora che:
2.1. DEFINIZIONE E PRIME PROPRIETÀ. 13
Proposizione 19 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è un insieme
di vettori di V, allora le tre seguenti proposizioni sono equivalenti:
Cominceremo col provare che (2.12) ⇒ (2.13). Poichè B è una base, esso è un insieme di generatori per V
e basterà quindi provare la sua minimalità. Procediamo per assurdo e supponiamo che l’insieme di generatori
di B non sia minimale; allora è possibile sopprimere uno dei vettori di B, ottenendo da B ancora un insieme
di generatori per V; senza perdere di generalità, possiamo supporre che il vettore che possiamo sopprimere
sia v1 , onde hv2 , v3 , ..., vn i = V. Poichè v1 ∈ V, il vettore v1 è allora combinazione lineare di v2 , ..., vn ad
opportuni coefficienti x2 , ..., xn , cioè:
Xn
v1 = xi vi , (2.16)
i=2
da cui segue:
n
X
v1 − xi vi = 0, (2.17)
i=2
cioè che esiste una combinazione lineare di v1 , v2 , ..., vn a coefficienti non tutti nulli (il coefficiente di v1 è
lo scalare “1”) che è uguale al vettore nullo, onde v1 , v2 , ..., vn sono dipendenti. Si è così pervenuti ad un
assurdo (poichè B è una base e dunque indipendente) nato dall’aver supposto che B non sia minimale rispetto
alla proprietà di generare V. Si è così vista la prima implicazione.
Proviamo ora che (2.13) ⇒ (2.14). Cominciamo con il provare che v1 , v2 , ..., vn sono indipendenti.
Procediamo per assurdo e supponiamo che esista una loro combinazione lineare:
n
X
xi vi = 0, (2.18)
i=1
con uno almeno tra i coefficienti diverso da zero. Senza perdere di generalità possiamo supporre che sia x1 6= 0;
dividiamo allora ambo i membri della (2.18) per x1 e con ovvi passaggi otteniamo la:
n
X
v1 = − {x1 }−1 xi vi , (2.19)
i=2
dalla quale si deduce che v1 ∈ hv2 , v3 , ..., vn i. Il sottospazio hv2 , v3 , ..., vn i di V contiene allora i vettori
v2 , v3 , ..., vn (come è ovvio) ed il vettore v1 (come si è appena visto); pertanto v1 , v2 , ..., vn ∈ hv2 , v3 , ..., vn i
e dunque ogni combinazione lineare di v1 , v2 , ..., vn appartiene al sottospazio hv2 , v3 , ..., vn i di V. Quindi
hv1 , v2 , ..., vn i è contenuto in hv2 , v3 , ..., vn i; poichè hv1 , v2 , ..., vn i = V, risulta V ⊆ hv2 , v3 , ..., vn i; ne segue
che {v2 , v3 , ..., vn } è un insieme di generatori di V, onde B non è un insieme minimale di generatori di V.
Si è così pervenuti ad una contraddizione nata dall’aver supposto che B non sia indipendente. Ne segue
l’indipendenza lineare di B.
Proviamo ora che B è massimale rispetto alla proprietà di essere indipendente. Sia v ∈ V. Poichè B è
un insieme di generatori di V, il vettore v è combinazione lineare di v1 , v2 , ..., vn ad opportuni coefficienti
x1 , x2 , ..., xn , cioè:
X n
v = xi vi , (2.20)
i=1
da cui segue:
n
X
v− xi vi = 0, (2.21)
i=1
cioè che i vettori v1 , v2 , ..., vn e v sono dipendenti (il coefficiente di v è lo scalare 00 100 ). Pertanto aggregando
a B un qualsiasi vettore di V si ottiene un insieme dipendente e B risulta quindi un insieme massimale di
vettori indipendenti. Si è così vista la seconda implicazione.
14 CAPITOLO 2. BASI E DIMENSIONE
Proviamo infine che (2.14) ⇒ (2.12). Poichè B è indipendente per ipotesi è sufficiente mostrare che
hv1 , v2 , ..., vn i = V. Sia v ∈ V; L’insieme {v1 , v2 , ..., vn , v} è dipendente, per ipotesi, onde esiste una
combinazione lineare: n
X
xv + xi vi = 0, (2.22)
i=1
con uno tra i coefficienti x, x1 , ..., xn diverso da zero. Non può accadere che risulti x = 0, altrimenti uno tra
x1 , x2 , ..., xn sarebbe diverso da zero e dalla (2.22) seguirebbe la dipendenza di B. Allora x 6= 0; con ovvi
passaggi dalla (2.22) segue allora che:
Xn
−1
v = − {x} xi vi , (2.23)
i=1
onde v è combinazione lineare di B. Da quanto detto segue che ogni vettore di V appartiene a hv1 , v2 , ..., vn i
e quindi che B genera V.
Le proposizioni 18 e 19 sono due caratterizzazioni delle basi di uno spazio vettoriale. Al fine di pervenire
al concetto di dimensione di uno spazio vettoriale proviamo che:
Proposizione 20 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base
di V, allora comunque presi n + 1 vettori w1 , ..., wn , wn+1 di V essi risultano dipendenti.
Dimostrazione Se w1 , w2 , ..., wn sono dipendenti, l’asserto è conseguenza della prop. 9 .
Pertanto proveremo l’asserto nel caso che i vettori
w1 , w2 , ..., wn sono indipendenti. (2.24)
Poichè B è una base di V, ciascuno dei vettori w1 , ..., wn , wn+1 si può scrivere in esattamente un modo come
combinazione lineare dei vettori v1 , v2 , ..., vn (cfr. prop. 18), cioè:
w1 = x1,1 v1 + ... + x1,n vn , (2.25)
w2 = x2,1 v1 + ... + x2,n vn ,
..
.
wn = xn,1 v1 + ... + xn,n vn ,
wn+1 = xn+1,1 v1 + ... + xn+1,n vn ,
oppure in notazione compatta:
n
X
wi = xi,j vj i = 1, 2, ..., n + 1. (2.26)
j=1
Osserviamo che uno almeno tra i coefficienti che compaiono al secondo membro della prima delle (2.25) è
diverso da zero; altrimenti sarebbe w1 = 0, onde (cfr. prop. 12) w1 , w2 , ..., wn sarebbero dipendenti, contro
la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori di B) che sia x1,1 6= 0; con ovvi
passaggi, dalla prima delle (2.25) segue allora che:
⎡ ⎤
n
X
v1 = {x1,1 }−1 ⎣w1 − x1,j vj ⎦ . (2.27)
j=2
Sostituendo nella seconda, terza, ... (n + 1)-ma delle (2.25) il valore di v1 fornito dalla (2.27) si riescono ad
esprimere i vettori w2 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , v2 , ..., vn ; cioè nella forma (ove
i coefficienti yi,j , con i = 2, ..., n + 1 e j = 1, ..., n, sono convenientemente scelti):
n
X
wi = yi,1 w1 + yi,j vj i = 2, ..., n + 1. (2.28)
j=2
Osserviamo ora che uno almeno tra i coefficienti y2,2 , ..., y2,n è diverso da zero; altrimenti sarebbe w2 = y2,1 w1 ,
onde w2 − y2,1 w1 = 0 ed i vettori w1 e w2 sarebbero dipendenti; ne seguirebbe (cfr. prop. 11) la dipendenza
di {w1 , w2 , ..., wn } contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori v2 , ..., vn )
che sia y2,2 6= 0; con ovvi passaggi dalla (2.28) per i = 2 segue che:
⎡ ⎤
X2 n
X
−1 ⎣
v2 = − {y2,2 } y2,j wj + y2,j vj ⎦ . (2.29)
j=1 j=3
2.1. DEFINIZIONE E PRIME PROPRIETÀ. 15
Sostituendo nella seconda terza, ..., n-ma delle (2.28) il valore di v2 fornito dalla (2.29) si riescono ad esprimere
i vettori w3 , ..., wn , wn+1 quali combinazioni lineari dei vettori w1 , w2 , v3 , ..., vn ; cioè nella forma (ove i
coefficienti zi,j , con i = 3, ..., n + 1 e j = 1, ..., n, sono convenientemente scelti):
2
X n
X
wi = zi,j wj + zi,j vj i = 3, ..., n + 1. (2.30)
j=1 j=3
Osserviamo ora che uno almeno tra i coefficienti z3,3 , ..., z3,n è diverso da zero; altrimenti sarebbe:
2
X
w3 = z3,j wj , (2.31)
j=1
onde è:
2
X
w3 − z3,j wj = 0, (2.32)
j=1
ed i vettori w1 , w2 e w3 sarebbero dipendenti; ne seguirebbe (cfr. prop. 11) la dipendenza di {w1 , w2 , ..., wn }
contro la (2.24). Possiamo supporre (a meno di una ridenominazione dei vettori v3 , v4 , ..., vn ) che sia z3,3 6= 0;
con ovvi passaggi dalla (2.30) per i = 3 segue che:
2
X n
X
v3 = − {z3,3 }−1 z3,j wj + {z3,3 }−1 w3 − {z3,3 }−1 z3,j vj . (2.33)
j=1 j=4
Sostituendo nella seconda, terza,..., n-ma delle (2.30) il valore di v3 fornito dalla (2.33) si riescono ad esprimere
i vettori w4 , ..., wn , wn+1 quali combinazioni lineari dei vettori
w1 , w2 , w3 , v4 , ..., vn ; (2.34)
con considerazioni analoghe a quelle ora descritte, dopo un totale di n iterazioni, si riesce ad esprimere il vettore
wn+1 quale combinazione lineare dei vettori w1 , w2 , ..., wn (ove i coefficienti k1 , ..., kn sono convenientemente
scelti):
X n
wn+1 = ki wi . (2.35)
i=1
Proposizione 21 Sia VIK uno spazio vettoriale costruito sul campo IK. Se B = {v1 , v2 , ..., vn } è una base
di V, allora comunque preso un insieme J contenente più di n vettori di V esso risulta necessariamente
dipendente.
Proposizione 22 Sia VIK uno spazio vettoriale costruito sul campo IK. Se
0
B = {v1 , v2 , ..., vn } , B = {w1 , w2 , ..., wm } ,
Proposizione 23 Se uno spazio vettoriale ammette una base finita costituita da n oggetti allora ogni altra
sua base risulta costituita da n oggetti.
Se VIK è uno spazio vettoriale costruito sul campo IK e B = {v1 , v2 , ..., vn } è una sua base diremo che V è
di dimensione finita n; la dimensione di uno spazio vettoriale V uguaglia cioè la cardinalità di una (e quindi
di ogni) base di V.
Osserviamo esplicitamente che (cfr. prop. 20):
Proposizione 24 La dimensione di uno spazio vettoriale V è uguale al numero massimo di vettori indipen-
denti di V.
Se VIK è uno spazio vettoriale di dimensione finita n costruito sul campo IK talora lo denoteremo con il
simbolo VnIK . Proviamo ora che:
Proposizione 25 Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Allora co-
munque preso un insieme J costituito da m vettori indipendenti di V, esso risulta contenuto in (almeno) una
base di V.
Proposizione 26 Sia VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK. Se J è
un insieme costituito da m generatori di V, allora necessariamente risulta n ≤ m; inoltre J contiene
necessariamente (almeno) una base di V.
Dimostrazione Sia I un insieme minimale di generatori contenuto in J. Allora, in forza della prop. 19, I
è una base per V contenuta in J. Pertanto I è costituito da n vettori ed è n ≤ m (poichè I è un sottoinsieme
di J).
Proposizione 27 Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di
V, allora il sottospazio somma W1 + W2 di W1 e W2 risulta così definito:
W1 + W2 = {w1 + w2 : ∀ w1 ∈ W1 , ∀ w2 ∈ W2 } . (2.37)
Dimostrazione Per definizione W1 + W2 = hW1 ∪ W2 i; dalla prop. 10 segue allora che la somma di W1
e W2 è la totalità delle combinazioni lineari di un numero finito di vettori appartenenti a W1 ∪ W2 . Pertanto:
w ∈ W1 + W2 ⇔ (2.38)
(∃ u1 , ...uh ∈ W1 , ∃ v1 , ...vk ∈ W2 , ∃ x1 , ..., xh , y1 , ..., yk ∈ IK
h
X k
X
tali che risulti: w = xi ui + yj vj ).
i=1 j=1
2.2. SOMME, SOMME DIRETTE E RELAZIONE DI GRASSMANN. 17
Ph Pk
Poiché i=1 xi ui ∈ W1 e j=1 yj vj ∈ W2 , posto:
h
X k
X
w1 = xi ui ; w2 = yj vj , (2.39)
i=1 j=1
Proposizione 28 Sia VIK uno spazio vettoriale costruito sul campo IK e siano W1 ,W2 due suoi sottospazi
finito dimensionali. Allora sono individuati il sottospazio somma W1 + W2 ed il sottospazio intersezione
W1 ∩ W2 i quali risultano entrambi di dimensione finita. Posto
dim W1 = h, dim W2 = k,
dim (W1 + W2 ) = c, dim (W1 ∩ W2 ) = i,
la quale implica:
i
X h
X k−i
X
w= (xj + yj )vj + xp vp + zq wq , (2.45)
j=1 p=i+1 q=1
dalla quale si deduce che w è combinazione lineare dei vettori v1 , v2 , ..., vh , w1 , w2 , ..., wk−i , onde Bh+k−i è
un insieme di generatori per W1 + W2 .
Proviamo ora che Bh+k−i è indipendente. Sia, all’uopo:
h
X k−i
X
xj vj + zq wq = 0. (2.46)
j=1 q=1
18 CAPITOLO 2. BASI E DIMENSIONE
Poniamo allora:
k−i
X
u = − zq wq . (2.48)
q=1
Dalla (2.51), essendo Bk = {v1 , v2 , ..., vi , w1 , w2 , ..., wk−i } una base per W2 , e quindi costituita da vettori
indipendenti, segue che:
yj = 0 j = 1, 2, ..., i, (2.52)
zj = 0 j = 1, 2, ..., (k − i) .
Sostituendo nella (2.46) i valori di zj forniti dalla seconda delle (2.52), si ottiene che:
h
X
xj vj = 0. (2.53)
j=1
dalla quale, essendo Bh = {v1 , v2 , ..., vh } una base per W1 , e quindi costituita da vettori indipendenti, segue
che:
xj = 0 j = 1, 2, ..., h. (2.54)
Dalle (2.52) ed (2.54) segue che Bh+k−i è indipendente. Poichè avevamo già visto che Bh+k−i genera W1 +W2 ,
abbiamo provato che Bh+k−i è una base per W1 + W2 , onde la dimensione c di W1 + W2 risulta uguale ad
h + k − i, cioè c = k + k − i.
Se W1 e W2 sono due sottospazi dello spazio vettoriale VIK costruito sul campo IK, diremo che la somma
di W1 e W2 è diretta se ogni elemento di W1 + W2 si scrive in esattamente un modo come somma di un
vettore di W1 e di un vettore di W2 ; in tal caso la somma di W1 e W2 sarà denotata con il simbolo W1 ⊕ W2 .
Al riguardo proveremo ora che:
Proposizione 29 Sia VIK uno spazio vettoriale costruito sul campo IK. Se W1 e W2 sono due sottospazi di
V, allora la loro somma è diretta se, e solo se, risulta:
W1 ∩ W2 = {0} . (2.55)
w = w1 + w2 con w1 ∈ W1 e w2 ∈ W2 , (2.56)
∃ w ∈ W1 ∩ W2 con w 6= 0. (2.62)
w = 0 + w con 0 ∈ W1 e w ∈ W2 , (2.63)
ed è anche:
w = w + 0 con w ∈ W1 e 0 ∈ W2 . (2.64)
Pertanto, il vettore w ∈ W1 + W2 si scrive in due distinti modi come somma di un vettore di W1 e di
un vettore di W2 . La somma non è allora diretta, contro l’assunto (2.61). Siamo così pervenuti ad una
contraddizione, nata dall’aver supposto la (2.62), la quale non può allora verificarsi.
Diamo ora alcuni esempi di somme e somme dirette di sottospazi di uno spazio vettoriale.
Sia VIK = IR3 , e siano A, B e C tre sottospazi di IR3 generati rispettivamente dalle seguenti basi:
pertanto la dimensione di A come quella di B è uguale a due, mentre al dimensione di C è uguale a uno.
Prendiamo ora in considerazione il sottospazio intersezione A ∩ B. Come è immediato verificare si ha:
Essendo il sottospazio intersezione diverso dallo spazio nullo, in forza della prop. 29 si deduce che la somma
A + B non è diretta.
Prendiamo ora in considerazione il sottospazio intersezione A ∩ C. Come è immediato verificare si ha:
A ∩ C = {0} . (2.67)
Essendo il sottospazio intersezione uguale allo spazio nullo, in forza della prop. 29 si deduce che la somma
A + C è diretta. Possiamo dunque scrivere A + C = A ⊕ C.
20 CAPITOLO 2. BASI E DIMENSIONE
Capitolo 3
APPLICAZIONI LINEARI
Proposizione 30 Se VIK e WIK sono due spazi vettoriali costruiti sul campo IK ed L:VIK −→ WIK è
un’applicazione di V in W, allora L risulta lineare se, e solo se, verifica la:
Dimostrazione Supponiamo che L sia lineare e proviamo che essa verifica la (3.4). Se ∀ k, k 0 ∈
IK, ∀ v, v0 ∈ V , allora, in forza della (3.2) risulta:
e che, in forza della (3.4), avendo denotato con 0W il vettore nullo di W, risulta:
Proposizione 31 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK
è un’applicazione lineare di V in W, allora, denotati con 0V e 0W il vettore nullo di V e W (rispettivamente)
necessariamente risulta:
L(0V ) = 0W (3.9)
21
22 CAPITOLO 3. APPLICAZIONI LINEARI
Dimostrazione Dalla prop. 1 e dalla (3.3) segue che, comunque scelto v ∈ V, si ha:
Diamo ora qualche ulteriore definizione. Sia L un’applicazione lineare dello spazio vettoriale W. Se L è
iniettiva, diremo che è un monomorfismo. Se L è suriettiva, diremo che è un epimorfismo. Se, infine,
L risulta biiettiva, diremo che L è un isomorfismo. Quindi un isomorfismo tra due spazi vettoriali è un
monomorfismo che è anche un epimorfismo. Se poi i due spazi vettoriali coincidono, cioè se V = W, diremo
che L è un endomorfismo; se l’endomorfismo L è anche un isomorfismo (cioè se è biiettivo) diremo che L è
un automorfismo.
3.2 Esempi.
Diamo ora alcuni esempi di applicazioni lineari. Siano VIK e WIK due spazi vettoriali costruiti sul medesimo
campo IK. Se 0W è il vettore nullo di W, l’applicazione N :VIK −→ WIK , che associa ad ogni vettore di V il
vettore 0W di W, è un’applicazione lineare costante che diremo applicazione costante nulla. Se VIK è uno
spazio vettoriale costruito sul campo IK, l’applicazione identica idV :VIK −→ VIK , che associa ad ogni vettore
v di V se stesso, cioè tale che idV (v) = v, è un automorfismo di V, come il lettore verificherà facilmente.
Se V = IR3 e W = IR2 , sia L:VIK −→ WIK così definita: L((x, y, z)) = (x + y, z). È immediato verificare
che L è un epimorfismo.
Daremo, nel seguito, altri esempi di applicazioni lineari.
Im L = {w ∈ W : ∃ v ∈ V, L(v) = w} . (3.11)
Proposizione 32 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK
è un’applicazione lineare di V in W, allora il sottoinsieme immagine di L risulta un sottospazio di W, cioè:
Im L ≤ W. (3.12)
Dimostrazione Si tratta di provare che Im L verifica le (1.23) e (1.24). Dalla prop. 31 segue che il vettore
nullo di W appartiene ad Im L, che è quindi non vuoto e verifica la (1.23). Siano ora w1 , w2 ∈ Im L e k1 ,
k2 ∈ IK. Allora esistono v1 , v2 ∈ V tali che L(v1 ) = w1 e L(v2 ) = w2 ; pertanto risulta:
Proposizione 33 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK; se L:VIK −→ WIK
è un’applicazione lineare di V in W, allora, il nucleo di L risulta un sottospazio di V, cioè:
ker L ≤ V. (3.15)
Dimostrazione Si tratta di provare che ker L verifica le (1.23) e (1.24). Dalla prop 31 segue che il vettore
nullo di V appartiene a ker L, che è quindi non vuoto e verifica la (1.23). Siano ora v1 , v2 ∈ ker L e k1 , k2 ∈ IK.
Allora risulta:
L(v1 ) = L(v2 ) = 0W , (3.16)
3.3. NUCLEO ED IMMAGINE. 23
inoltre é:
L(k1 v1 + k2 v2 ) = k1 L(v1 ) + k2 L(v2 ) = (3.17)
= k1 0W + k2 0W = 0W .
Da quanto visto segue che k1 v1 + k2 v2 ∈ ker L, onde ker L verifica la (1.24).
Denotato ora con 0V il vettore nullo di V, proviamo che:
Proposizione 34 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed
L : VIK −→ WIK , (3.18)
un’applicazione lineare di V in W. Allora L è un epimorfismo se, e solo se, risulta:
Im L = W. (3.19)
Inoltre L è un monomorfismo se, e solo se, risulta:
ker L = {0V } . (3.20)
Dimostrazione L è un epimorfismo se, e solo se, L è suriettiva; La prima parte dell’asserto è allora ovvia.
L è un monomorfismo se, e solo se, L è iniettiva. Se L è iniettiva allora l’unico vettore di V la cui immagine
in L è il vettore nullo di W è necessariamente il vettore nullo di V, onde:
L è un monomorfismo =⇒ ker L = {0V } . (3.21)
Al fine di provare che nella (3.21) vale anche l’implicazione in verso opposto, osserviamo che, se ker L = {0V },
posto L(v) = L(v0 ), risulta necessariamente (per la linerità di L): L(v − v0 ) = 0W ; da cui subito segue che:
v − v0 ∈ ker L, onde v − v0 = 0V ; da cui ovviamente si trae v = v0 , e quindi la iniettività di L. Pertanto,
abbiamo visto che:
ker L = {0V } =⇒ L è un monomorfismo. (3.22)
ove 0W è il vettore nullo dello spazio W. Poichè uno almeno tra gli scalari x1 , x2 , ..., xm è diverso da zero, dalla
(3.28) segue la dipendenza lineare dei vettori L(v1 ), L(v2 ), ..., L(vm ) di W, immagini dei vettori v1 , v2 , ..., vm
(rispettivamente) di V.
24 CAPITOLO 3. APPLICAZIONI LINEARI
Proposizione 37 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed
un isomorfismo di V in W. Se v1 , v2 , ..., vm sono m vettori di V, allora le loro immagini L(v1 ), L(v2 ), ..., L(vm )
sono dipendenti se, e solo se, sono dipendenti v1 , v2 , ..., vm .
Dimostrazione Poichè L è un’applicazione lineare, se v1 , v2 , ..., vn sono dipendenti, dalla prop. 36 segue
che anche L(v1 ), L(v2 ), ..., L(vm ) sono dipendenti.
Supponiamo ora che L(v1 ), L(v2 ), ..., L(vm ) siano dipendenti. Esistono allora m scalari non tutti nulli
x1 , x2 , ..., xm tali che risulti:
Xm
xi L(vi ) = 0W , (3.30)
i=1
ove 0W è il vettore nullo dello spazio W. Dalla (3.30), in forza della prop. 30 segue che:
Ãm !
X
L xi vi = 0W . (3.31)
i=1
ma essendo L un isomorfismo, dalla prop. 35 segue che Ker L si riduce al vettore nullo 0V di V, onde è:
m
X
xi vi = 0V . (3.33)
i=1
Poichè uno almeno tra gli scalari x1 , x2 , ..., xm è diverso da zero, dalla (3.33) segue la dipendenza lineare dei
vettori v1 , v2 , ..., vm di V.
Dalla prop. precedente e dalla 24 segue subito che:
Proposizione 38 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK ed
un isomorfismo di V in W. Se v1 , v2 , ..., vm sono m vettori di V, essi risultano indipendenti se, e solo se, tali
risultano le loro immagini in L. Ne segue che L, assieme alla sua inversa L−1 , conservano la dipendenza e
la indipendenza lineare e che V risulta di dimensione finita n se, e solo se, W risulta di dimensione finita n.
Per il caso di un’applicazione lineare L di uno spazio vettoriale VnIK di dimensione finita n in uno spazio
WIK , proviamo ora che:
Proposizione 39 Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, ed
L : VIK −→ WIK ,
Dimostrazione Poichè V è di dimensione finita n, in forza della prop. 24, segue che il massimo numero
di vettori indipendenti di V è uguale a n. Il sottospazio ker L di V dovrà allora essere di dimensione finita non
superiore ad n (altrimenti sarebbe possibile trovare n+1 vettori indipendenti di ker L; quindi in V esisterebbero
n + 1 vettori indipendenti ed è escluso che ciò accada). Inoltre, dalla prop. 20 segue che comunque presi n + 1
vettori di Im L essi risultano dipendenti, onde anche la dimensione di Im L non può essere superiore ad n ed
è dunque finita.
Sia ora B = {v1 , v2 , ..., vm } una base per ker L. Si è appena visto che m ≤ n; gli m vettori indipendenti di
B, appartenendo a ker L, appartengono a V; allora, in forza della prop. 25 , è possibile trovare n − m vettori
vm+1 , vm+2 , ..., vn tali che l’insieme B0 = {v1 , v2 , ..., vm , vm+1 , ..., vn } sia una base per V. Proveremo ora che
gli n − m vettori L(vm+1 ), L(vm+2 ), ..., L(vn ) di W costituiscono una base per Im L, cioè che:
3.3. NUCLEO ED IMMAGINE. 25
Cominciamo con il provare la (3.36) e sia all’uopo w ∈ Im L; dalla (3.11) segue che esiste un vettore v ∈V
tale che L(v) = w; poichè B0 è una base per V, v si scrive in esattamente un modo come combinazione dei
vettori di B0 , onde esistono n scalari x1 , x2 , ..., xn tali che risulti:
n
X
v= xi vi . (3.38)
i=1
Poichè v1 , v2 , ..., vm appartengono a ker L, risulta: L(v1 ) = L(v2 ) = ... = L(vm ) = 0W il vettore nullo dello
spazio W.
Pertanto, dalla (3.39) si trae:
Xn
w= xi L(vi ), (3.40)
i=m+1
cioè che w è combinazione lineare dei vettori L(vm+1 ), L(vm+2 ), ..., L(vn ) i quali allora generano Im L. Si è
così vista la (3.36).
Proviamo ora la (3.37). Supponiamo quindi che sia:
n
X
xi L(vi ) = 0W . (3.41)
i=m+1
Pertanto, risulta:
n
X
xi vi ∈ ker L. (3.43)
i=m+1
Poichè B è una base per ker L, esistono m scalari y1 , y2 , ..., ym tali che sia:
m
X n
X
yi vi = xi vi , (3.44)
i=1 i=m+1
Diremo che la n-pla (x1 , x2 , ..., xn ) è la n-pla delle coordinate di v, valutate rispetto alla base B. Ogni
volta che verranno utilizzate le coordinate di un vettore rispetto ad una base B = {v1 , v2 , ..., vn }, converremo
di fissare un ordinamento dei vettori della stessa, pertanto da ora in avanti scriveremo B = (v1 , v2 , ..., vn ).
Proveremo al riguardo che:
Proposizione 40 Siano VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK e
B = (v1 , v2 , ..., vn ) ,
una base di V. Allora l’applicazione χB : VnIK −→ IKn che associa ad ogni vettore di V la n-pla delle sue
coordinate, valutate rispetto a B, è un isomorfismo tra VnIK e IKn .
allora è: n n
X X
v= xi vi , w= yi vi , (3.50)
i=1 i=1
onde risulta:
n
X
v + w = (xi + yi )vi . (3.51)
i=1
Pertanto è:
L’applicazione χB verifica allora la (3.2). Proviamo ora che χB verifica anche la (3.3). Se k ∈ K, allora è
(cfr.(3.50)): Ã n !
X Xn
kv = k xi vi = (kxi )vi , (3.53)
i=1 i=1
onde risulta:
χB (kv) = ((kx1 ), (kx2 ), ..., (kxn )) = kχB (v). (3.54)
Abbiamo così visto che χB è lineare.
Proviamo ora che è suriettiva: se (z1 , z2 , ..., zn ) ∈ IKn , sia:
n
X
u= zi vi , (3.55)
i=1
allora evidentemente risulta χB (u) = (z1 , z2 , ..., zn ), onde (z1 , z2 , ..., zn ) ∈ Im χB ed χB risulta suriettiva.
Proviamo infine che Ker χB si riduce al vettore nullo 0V di V. Sia, a tal fine
n
X
u0 = ki vi con u0 ∈ ker χB , (3.56)
i=1
allora è:
χB (u0 ) = (0, 0, ..., 0), (3.57)
onde risulta:
ki = 0 i = 1, 2, ..., n, (3.58)
3.5. ULTERIORI PROPRIETÀ DELLE APPLICAZIONI LINEARI. 27
e quindi:
u0 = 0V . (3.59)
n
Dalla prop. 35 segue allora che l’applicazione lineare χB è un isomorfismo di in IK . VnIK
Dalla proposizione precedente segue che ogni spazio vettoriale n-dimensionale, costruito sul campo IK,
risulta isomorfo allo spazio IKn . Tale spazio è allora, come si dice, un modello universale per gli spazi
vettoriali n-dimensionali su IK.
Dalla proposizione precedente segue poi in particolare che:
Proposizione 41 Siano VnIK uno spazio vettoriale di dimensione finita n costruito sul campo IK e
B = (v1 , v2 , ..., vn ) ,
una base di V. Allora la n-pla delle coordinate della somma di due vettori v e w di V, valutata rispetto a B,
è la somma delle n-ple delle coordinate di v e di w, valutate rispetto alla stessa base B. Inoltre la n-pla delle
coordinate, valutate rispetto a B, del prodotto dello scalare k per un vettore v è data dal prodotto di k per la
n-pla delle coordinate di v, valutate rispetto a B. Inoltre, m vettori di V sono dipendenti se, e solo se, tali
risultano le n-ple delle loro coordinate, valutate rispetto a B.
è lineare (come è facile verificare). Dalla prima parte dell’asserto segue poi che essa è l’unica applicazione
lineare di V in W che verifichi la (3.61).
Proviamo ora che:
28 CAPITOLO 3. APPLICAZIONI LINEARI
Proposizione 43 Siano VnIK e WIK due spazi vettoriali costruiti sul medesimo campo IK, L : V −→ W un’ap-
plicazione lineare da V in W e B = (v1 , v2 , ..., vn ) una base di V. Allora, gli n vettori L(v1 ), L(v2 ), ..., L(vn )
di W generano Im L.
Dimostrazione Sia w ∈ Im L; allora esiste un vettore v ∈ V tale che L(v) = w. Poichè B è una base per
V, il vettore v si scrive in esattamente un modo come combinazione lineare dei vettori di B. Sia
n
X
v= xi vi ; (3.69)
i=1
allora risulta à n !
X n
X
w =L(v) = L xi vi = xi L(vi ). (3.70)
i=1 i=1
Pertanto, il vettore w appartiene al sottospazio hL(v1 ), L(v2 ), ..., L(vn )i, onde Im L = hL(v1 ), L(v2 ), ..., L(vn )i.
Osserviamo esplicitamente che i vettori L(v1 ), L(v2 ), ..., L(vn ), di cui alla proposizione precedente, in
generale, non costituiscano una base per Im L poichè possono risultare dipendenti.
Siano ora VIK , WIK e UIK tre spazi vettoriali costruiti sul medesimo campo IK. Siano poi L : VIK −→ WIK
e M : WIK −→ UIK applicazioni di V in W e di W in U, rispettivamente. È allora individuata l’applicazione
ML : V −→ U dello spazio V nello spazio U, che diremo prodotto di L ed M, definita nel modo seguente:
∀v ∈V ML(v) = M(L(v)). (3.71)
Proveremo, al riguardo, ora che:
Proposizione 44 Siano ora VIK , WIK e UIK tre spazi vettoriali costruiti sul medesimo campo IK. Se
L : VIK −→ WIK , M : WIK −→ UIK ,
sono applicazioni lineari di V in W e di W in U, rispettivamente, allora l’applicazione prodotto ML : V −→ U
dello spazio V nello spazio U risulta necessariamente lineare.
Dimostrazione Siano v, v0 ∈V; allora è
ML(v + v0 ) = M(L(v + v0 )); (3.72)
in forza della linearità di L, risulta:
0
M(L(v + v0 )) = M(L(v) + L(v )); (3.73)
inoltre, essendo lineare anche M, risulta:
M(L(v) + L(v0 )) = M(L(v)) + M(L(v0 )). (3.74)
Infine dalla (3.71) segue:
M(L(v)) + M(L(v0 )) = ML(v) + ML(v0 ). (3.75)
Abbiamo così provato che:
∀ v, v0 ∈V, ML(v + v0 ) = ML(v) + ML(v0 ). (3.76)
Siano ora k∈IK e v ∈V; allora è
ML(kv) =M(L(kv)); (3.77)
in forza della linearità di L, risulta:
M(L(kv)) =M(kL(v)); (3.78)
inoltre, essendo lineare anche M, risulta:
M(kL(v)) =kM(L(v)). (3.79)
Infine dalla (3.71) segue:
kM(L(v)) =kML(v). (3.80)
Abbiamo così provato che:
∀k∈IK, ∀v ∈V, ML(kv) =kML(v). (3.81)
Dalle (3.76) e (3.81) segue l’asserto.
Capitolo 4
APPLICAZIONI LINEARI E
MATRICI
In questo numero tratteremo di applicazioni lineari tra spazi vettoriali di dimensione finita.
w = (x + 2y + z, 2x + 3z).
Siano, ancora VnIK = IR3 e Wm 2 0
IK = IR ; se B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) e B = ((1, 0), (1, 1)) sono le basi
di IR e IR , rispettivamente, sia A la matrice definita in (4.2). Il vettore v = (x, y, z) di IR3 ha colonna delle
3 2
29
30 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI
Pertanto µ ¶ µ ¶
−x + 5y + z x + 5y + 3z −x + 5y + z
w = (x + z) (1, 0) + (1, 1) = , . (4.6)
2 2 2
Procediamo ora con la dimostrazione della linearità della applicazione definita nella (4.1); proviamo quindi
che:
Proposizione 45 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V e una base B0 = (w1 , w2 , ..., wm )
di W. Se A ∈ M(m × n, IK) è una matrice ad m righe ed n colonne ad elementi in IK, allora l’applicazione
LB n m
A,B0 (v) : VIK −→ WIK , (4.7)
Dimostrazione Siano v, v0 ∈ V; denotate con Xv ed Xv0 le colonne delle loro coordinate (rispettiva-
mente), valutate rispetto a B, per la colonna Xv+v0 delle coordinate di v + v0 , valutate sempre rispetto a B,
risulta (in forza della prop. 36):
Xv+v0 = Xv + Xv0 . (4.8)
Analogamente, se k ∈ K e v ∈ V; allora, dette Xv e Xkv le colonne delle coordinate di v e di kv
(rispettivamente), valutate rispetto a B, risulta:
Pertanto, la colonna delle coordinate di w00 è la somma delle colonne delle coordinate di w e w0 . Dalla
prop. 40 segue allora che w00 = w + w0 . Ricordando ora le posizioni fatte (w00 =LB 0 B
A,B0 (v + v ), w =LA,B0 (v),
w0 =LB 0
A,B0 (v )), da quanto detto segue che:
LB 0 B B 0
A,B0 (v + v ) = LA,B0 (v)+LA,B0 (v ). (4.14)
Se ora u =LB 0
A,B0 (kv), la colonna delle coordinate di u, valutata rispetto a B , è data da:
Yu = AXkv . (4.15)
Pertanto, la colonna delle coordinate di u è il prodotto dello scalare k per la colonna delle coordinate di w;
ne segue che u = kw. Ricordando le posizioni fatte (u =LB B
A,B0 (kv), w =LA,B0 (v)), da quanto detto segue:
LB B
A,B0 (kv) = kLA,B0 (v). (4.18)
Proposizione 46 Nelle ipotesi della proposizione precedente, se vj è (j = 1, 2, ..., n) il j-esimo vettore della
base B di V allora la colonna delle coordinate del vettore LB 0
A,B0 (vj ), valutata rispetto alla base B , è data dalla
j
j-esima colonna A della matrice A.
Dimostrazione La colonna delle coordinate di vj , valutata rispetto alla base B, è data da
Dimostrazione La colonna delle coordinate di L (vj ), valutata rispetto a B0 , per ogni j = 1, 2, ..., n
coincide con la j-esima colonna Aj della matrice A (per come è costruita A); d’altra parte (in forza della prop.
45), anche la colonna delle coordinate di LB 0
A,B0 (vj ) valutata rispetto a B , per ogni j = 1, 2, ..., n coincide con
j B
la j-esima colonna A di A. Ne segue che L (vj ) ed LA,B0 (vj ) hanno le stesse coordinate, valutate rispetto
a B0 . Pertanto, in forza della prop. 40, risulta:
∀ j = 1, 2, ..., n. L (vj ) = LB
A,B0 (vj ) . (4.20)
Ne segue che l’applicazione fissata L e la LB
A,B0 agiscono allo stesso modo sui vettori della base B di V; dalla
prop. 42 segue allora che L = LB A,B 0 .
La matrice A di cui alla proposizione precedente, la cui j-esima colonna Aj ( j = 1, 2, ..., n) è data dalla
colonna delle coordinate dell’immagine in L del j-esimo vettore vj di B, valutata rispetto alla base B0 , dipende
in modo essenziale dall’applicazione lineare L : V −→ W di V in W e dalla scelta delle basi B di V e B0 di
W. Diremo che tale matrice che denoteremo con il simbolo AB L,B0 , è la matrice associata ad L quando sono
fissate le basi B di V e B0 di W.
Dalle prop. 45 e 47 segue allora che:
Proposizione 48 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B0 = (w1 , w2 , ..., wm )
Pn T
di W. Se v = i=1 xi vi ∈ V, con il simbolo Xv denoteremo la colonna (x1 , x2 , ..., xn ) delle sue coordinate,
Pm
valutate rispetto a B. Se w = i=1 yi wi ∈ W con il simbolo Yw denoteremo la colonna (y1 , y2 , ..., ym )T delle
sue coordinate, valutate rispetto a B0 . Siano allora L : V −→ W un’applicazione lineare di V in W ed AB L,B0
la matrice associata ad L quando sono fissate le basi B di V e B 0 di W. Allora sussiste la seguente relazione:
L (v) = w ⇐⇒ Yw = AB
L,B0 Xv . (4.21)
32 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI
Illustriamo ora con qualche esempio la nozione di matrice associata ad un’applicazione lineare. Siano,
all’uopo, VnIK = IR3 e Wm 2
IK = IR ; siano poi
N = ((1, 0, 0), (0, 1, 0), (0, 0, 1)) , N 0 = ((1, 0), (0, 1)) , (4.22)
le basi naturali di IR3 e IR2 , rispettivamente. Sia infine L : IR3 −→ IR2 , l’applicazione lineare così definita:
La matrice ALN ,N 0 coincide con la matrice definita in (4.2), come subito si verifica.
Siano, ancora VnIK = IR3 e Wm 2
IK = IR ; se
B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) , B0 = ((1, 0), (1, 1)) , (4.24)
sono le basi di IR3 e IR2 , rispettivamente, alla applicazione lineare L : IR3 −→ IR2 , così definita:
Proposizione 49 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK di dimensioni finite
n ed m, rispettivamente. Siano poi fissate una base B = (v1 , v2 , ..., vn ) di V, una base B 0 = (w1 , w2 , ..., wm )
di W. Se A ∈ M(m × n, IK) è una fissata matrice ad m righe ed n colonne ad elementi in IK, allora è
individuata l’applicazione lineare L = LB n m B
A,B0 : VIK −→ WIK definita in (4.1). Allora la AL,B0 associata a tale
0
applicazione L, quando sono fissate le basi B di V e B di W coincide necessariamente con la matrice fissata
A.
Relativamente alla matrice associata ad un prodotto di applicazioni lineari, proviamo ora che:
p
Proposizione 50 Siano VnIK , Wm IK e UIK tre spazi vettoriali costruiti sul medesimo campo IK di dimensioni
finite n, m e p (rispettivamente). Siano poi B , B0 e B00 basi per V, W e U (rispettivamente). Se
è un’applicazione lineare di V in W ed
M : WIK −→ UIK , (4.31)
0
è un’applicazione lineare di W in U, sono individuate le matrici AB B
L,B0 e AM,B00 , associate ad L ed M
B
(rispettivamente) ed anche la matrice AML,B00 , associata all’applicazione lineare prodotto (cfr. prop. 44)
cioè la matrice associata al prodotto ML è il prodotto della matrice associata ad M per la matrice associata
ad L (quando le basi sono fissate come nella (4.33)).
4.3. CAMBIAMENTI DI BASE; MATRICI INVERTIBILI. 33
Zu = AB
ML,B00 Xv . (4.35)
Inoltre è:
Yw = AB
L,B0 Xv . (4.38)
Sostituendo nella (4.37) il valore di Yw fornito dalla (4.38) segue:
0
Zu = AB B
M,B00 AL,B0 Xv . (4.39)
Proposizione 51 Sia VnIK , uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se
AB
id,B = In . (4.41)
Dimostrazione L’immagine id(vj ) del j-esimo vettore della base B è (per j = 1, 2, ..., n) uguale a vj ; la
T
n-pla delle coordinate di vj , valutata rispetto alla base B è data da (0, ..., 1, .., 0) , ove l’unità compare in
T
j-esima posizione; pertanto la j-esima colonna della matrice AB id,B è data da (0, ..., 1, .., 0) , onde (cfr. A.69)
ABid,B = In .
T
Se poi AB B
id,B0 = In , allora la j-esima colonna di Aid,B0 è (0, ..., 1, .., 0) , ove l’unità compare in j-esima
posizione (per ogni j = 1, 2, ..., n); pertanto la colonna delle coordinate di id (vj ), immagine del j-esimo
vettore della base B, valutata rispetto alla base B0 , è data da (0, ..., 1, .., 0)T ; poichè id (vj ) = vj , il vettore vj
di B coincide con il vettore wj di B0 (per ogni j = 1, 2, ..., n); onde B = B0 .
Proposizione 52 Sia VnIK , uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se
B = (v1 , v2 , ..., vn ) ,
Dimostrazione Se L è l’applicazione identica di V in sè, allora, dalla prop. 51 segue che AB id,B = In .
Sia ora AB L,B = In . Allora, per ogni j = 1, 2, ..., n, la colonna delle coordinate valutate rispetto alla
T
base B, di L (vj ) è data da (0, ..., 1, .., 0) , ove l’unità compare in j-esima posizione; pertanto, L (vj ) = vj .
Da ciò segue che L agisce come l’identità sugli elementi della base B di V. In forza della prop. 37, allora
necessariamente L coincide con l’identità di V.
Proviamo ora che:
Proposizione 53 Sia VnIK uno spazio vettoriale costruito sul campo IK, di dimensione finita n. Se
sono due basi di V, allora denotate con Xv ed Yv le colonne delle coordinate di un vettore v ∈V, valutate
rispetto a B e B0 , rispettivamente, necessariamente risulta:
Yv = AB
id,B0 Xv . (4.42)
Dimostrazione Dalla (4.21) segue che la colonna AB id,B0 Xv è la colonna delle coordinate di id(v) valutata
rispetto alla base B0 . Poichè id(v) = v, si ha l’asserto.
Osserviamo esplicitamente che, ai sensi della prop. 47, la j-esima colonna (j = 1, 2, ..., n) della matrice
ABid,B0 è la colonna delle coordinate di vj = id (vj ), valutate rispetto alla base B .
0
Per il caso di un’applicazione lineare L di uno spazio vettoriale V in uno spazio Wn equidimensionali,
n
Proposizione 54 Siano VnIK e WnIK due spazi vettoriali costruiti sul medesimo campo IK, aventi uguale dimen-
sione finita n. Siano poi fissate una base B di V e una base B0 di W. Siano ora L : V −→ W un’applicazione
lineare di V in W ed AB 0
L,B0 la matrice associata ad L quando sono fissate le basi B di V e B di W. Ebbene
B
l’applicazione L risulta invertibile se, e solo se, tale risulta la matrice AL,B0 .
Dimostrazione Supponiamo dapprima che L risulti invertibile, onde è individuata l’applicazione lineare
0
L−1 : W −→ V. In forza della prop. 50, per le matrici AB B
L−1 ,B e AL,B0 risulta:
0
AB B B
L−1 ,B AL,B0 = AL−1 L,B , (4.43)
0 0
AB B B
L,B0 AL−1 ,B = ALL−1 ,B0 .
Poichè LL−1 è l’identità di W e poichè L−1 L è l’identità di V, dalla prop. 51 segue che:
0
AB B
L−1 ,B AL,B0 = In , (4.44)
0
AB B
L,B0 AL−1 ,B = In .
¡ B ¢−1 0
AL,B0 = AB
L−1 ,B . (4.45)
¡ B ¢−1
AL,B0 = B. (4.46)
M = LB
B,B0 : W −→ V. (4.47)
La matrice associata a tale applicazione M, quando sono fissate le basi B0 di W e B di V, coincide (cfr. prop.
49) con B; cioè:
0
ABM,B = B. (4.48)
Dalle (4.33), (4.48) e (4.46) segue che per la matrice associata all’applicazione
ML : V −→ V, (4.49)
risulta: 0
AB B B B
ML,B = AM,B AL,B0 = BAL,B0 = In. (4.50)
4.3. CAMBIAMENTI DI BASE; MATRICI INVERTIBILI. 35
LM : W −→ W, (4.51)
risulta: 0 0
AB B B B
LM,B0 = AL,B0 AM,B = AL,B0 B = In. (4.52)
In forza della prop. 52, le (4.50) e (4.52) implicano che ML è l’applicazione identica di V in sé e che LM è
l’applicazione identica di W in sè. Pertanto, L ed M risultano l’una l’inversa dell’altra.
Sia ora A una matrice quadrata appartenente a M(n × n, IK). Proveremo al riguardo ora che:
Proposizione 55 Sia A una matrice quadrata appartenente a M(n × n, IK). Allora A risulta invertibile se,
e solo se, le sue colonne A1 , A2 , ..., An sono indipendenti.
quando in IKn è fissata la base naturale N = (e1 , e2 , ..., en ). In forza della prop. 54 risulta:
L’applicazione L è invertibile se, e solo se, L è un isomorfismo. Ciò accade se, e solo se, (cfr. prop. 35), risulta
Im L = IKn e ker L = {0}. In forza della prop. 39, ciò equivale a dire che Im L = IKn oppure ker L = {0}.
Pertanto:
Dalla prop. 43, segue che l’immagine di L coincide con IKn se, e solo se, i vettori L (e1 ) , L (e2 ) , ..., L (en ) sono
indipendenti. In forza della prop. 40 e 38 tali vettori sono indipendenti se, e solo se, tali risultano le colonne
delle loro coordinate, valutate rispetto ad N . Le colonne delle coordinate dei vettori L (e1 ) , L (e2 ) , ..., L (en )
valutate rispetto ad N coincidono (cfr. prop. 46) con le colonne A1 , A2 , ..., An della matrice A. Pertanto,
risulta:
Im L = IKn ⇐⇒ A1 , A2 , ..., An sono indipendenti. (4.56)
Dalle (4.54), (4.55) e (4.56).
Proposizione 56 Sia A una matrice quadrata appartenente a M(n × n, IK). Allora A risulta invertibile se,
e solo se, le sue righe A1 , A2 , ..., An sono indipendenti.
Dimostrazione A è invertibile, se e solo se, la sua trasposta AT è invertibile; AT è invertibile se, e solo
se (cfr. prop. 55), le sue colonne sono indipendenti. Poichè le colonne di AT sono le righe di A.
36 CAPITOLO 4. APPLICAZIONI LINEARI E MATRICI
Capitolo 5
SISTEMI LINEARI
5.1 Premessa.
Sia IKn lo spazio vettoriale n-dimensionale delle n-ple ordinate di elementi di IK. In questo numero denoteremo
T
ogni elemento v = (x1 , x2 , ..., xn ) ∈ IKn sotto forma di colonna, cioè porremo v = (x1 , x2 , ..., xn ) . Proviamo
ora che:
Proposizione 57 Sia IKn lo spazio vettoriale n-dimensionale delle n-ple ordinate di elementi di IK. Se
in IKn è fissata la base naturale N = {e1 , e2 , ..., en }, allora la colonna Xv delle coordinate del vettore
T T
v = (x1 , x2 , ..., xn ) di IKn , valutate rispetto ad N , coincide con v = (x1 , x2 , ..., xn ) cioè:
Xv = v. (5.1)
Dimostrazione Risulta:
n
X
v= xi ei . (5.2)
i=1
n m
Proposizione 58 Siano A una matrice di m righe ed n colonne ad elementi in IK ed L = LN A,N 0 : IK −→ IK
n m
l’applicazione lineare associata ad A quando in IK ed in IK sono fissate le rispettive basi naturali N ed N 0 .
Allora, se v ∈ IKn e w ∈ IKm , necessariamente risulta:
n m
L = LN
A,N 0 : IK −→ IK , (5.4)
l’applicazione lineare associata ad A quando in IKn ed in IKm sono fissate le rispettive basi naturali N ed N 0 .
Allora dette A1 , A2 , ..., An le colonne della matrice A, necessariamente risulta:
®
Im L = A1 , A2 , ..., An . (5.5)
In altri termini, l’immagine di L è il sottospazio di IKm generato dagli n vettori di IKm ciascuno dei quali è
una colonna di A.
Dimostrazione Dalla prop. 46 segue che le colonne di A sono le colonne delle coordinate, valutate rispetto
ad N 0 , delle immagini in L dei vettori di N . Dalla prop. 57 segue allora che le immagini in L dei vettori di
N sono gli n vettori di IKm ciascuno dei quali è una colonna di A. Dalla prop. 43 segue quindi l’asserto.
37
38 CAPITOLO 5. SISTEMI LINEARI
Sia A = (ai,j ) ∈ M (m × n, IK) la matrice dei coefficienti delle equazioni del sistema lineare (5.6). Se
X = (x1 , x2 , ..., xn )T ∈ IKn è la colonna delle incognite e B = (b1 , b2 , ..., bm )T ∈ IKm è la colonna dei
termini noti del sistema di IK, la (5.6) si può scrivere nella forma più compatta:
Diremo soluzione del sistema ogni elemento (x1 , x2 , ..., xn )T ∈ IKn , che identicamente soddisfi la (5.7).
Se non esiste alcuna soluzione del sistema, diremo che esso è incompatibile. Diremo invece che esso è
compatibile, se esso ammette almeno una soluzione. Al riguardo sussiste il seguente teorema di Rouché-
Capelli:
T
Pertanto, il sistema ammette la soluzione (x1 , x2 , ..., xn ) ∈ IKn , se, e solo se, il vettore colonna dei termini
noti B è combinazione lineare delle colonne A1 , A2 , ..., An , a coefficienti x1 , x2 , ..., xn (rispettivamente). Dalla
prop.59 segue allora che il sistema è compatibile se, e solo se, risulta:
®
B ∈ A1 , A2 , ..., An = Im L. (5.10)
®
Se B ∈ A1 , A2 , ..., An , allora la colonna B dipende dalla colonne di A ed il massimo numero di colonne
indipendenti di C coincide con il rango di A. Se invece il rango di A coincide con quello di C, allora
necessariamente la colonna dei termini noti B è dipendente dalle colonne di A (altrimenti il rango di C
sarebbe superiore di una unità a quello di A).
AX = 0; A ∈ M (m × n, IK) . (5.11)
Il sistema (5.11) ammette sempre almeno la soluzione banale tutta nulla e quindi risulta sempre compa-
tibile. Più precisamente:
5.4. INSIEME DELLE SOLUZIONI DI UN SISTEMA. 39
Proposizione 61 Sia assegnato il sistema omogeneo di m equazioni in n incognite (5.11). Se la matrice dei
coefficienti del sistema A = (ai,j ) ∈ M (m × n, IK) ha rango uguale a p, allora l’insieme delle soluzioni del
sistema (5.11) è un sottospazio (n − p)-dimensionale di IKn .
n m
Dimostrazione Sia L = LN A,N 0 : IK −→ IK l’applicazione lineare associata ad A quando in IKn ed in
IK sono fissate le rispettive basi naturali N ed N 0 . La colonna X ∈ IKn è soluzione di (5.11) se, e solo se,
m
risulta L (X) = 0. Pertanto (in forza della (3.14)), la colonna X è soluzione se, e solo se, risulta:
X ∈ ker L. (5.12)
Pertanto, l’insieme delle soluzioni di (5.11) è, in forza della prop. 33, un sottospazio di IKn . Poichè per ipotesi,
risulta R (A) = p, la dimensione di Im L (cfr.59) è uguale a p; dalla prop. 39, segue allora che la dimensione
di Ker L è uguale ad n − p.
Diremo autosoluzione di un sistema omogeneo ogni sua eventuale soluzione non banale, cioè non nulla.
Proviamo ora che:
Proposizione 62 Nelle ipotesi della proposizione precedente, il sistema (5.11) ammette autosoluzioni se, e
solo se, risulta:
p < n. (5.13)
Dimostrazione Dalla prop. 61 segue che l’insieme delle soluzioni di (5.11) è un sottospazio (n − p)-
dimensionale di IKn . Tale sottospazio contiene qualche vettore non nullo se, e solo se, la sua dimensione n − p
risulta maggiore di zero.
Proposizione 66 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23). Il sistema ammette
esattamente una soluzione se, e solo se, la matrice A dei coefficienti risulta non singolare. Se ciò accade,
esiste la matrice inversa A−1 (vedi appendice) e la soluzione del sistema è allora data da:
X = A−1 B. (5.29)
Dimostrazione Dalla prop. precedente segue che il sistema (5.23) ammette esattamente una soluzione
se, e solo se, il rango di A risulta uguale ad n; ciò equivale a dire che le n colonne della matrice quadrata A
sono indipendenti; ciò accade se, e solo se, la matrice A risulta non singolare. È così provata la prima parte
dell’asserto.
Se A è invertibile, moltiplicando a sinistra, ambo i membri della relazione AX = B, per la matrice A−1 ,
con ovvi passaggi si ottiene la (5.29), onde l’asserto.
Per il caso particolare di un sistema quadrato omogeneo, dalla prop. precedente segue la:
Proposizione 67 Il sistema quadrato omogeneo AX = 0, a coefficienti nel campo IK, ammette la sola
soluzione banale se, e solo se, la matrice A dei coefficienti risulta non singolare.
Possiamo ora, utilizzare la (A.91) per rienunciare il teorema di Cramer nella seguente formulazione:
Proposizione 68 Sia assegnato il sistema quadrato di n equazioni in n incognite (5.23). Il sistema ammette
esattamente una soluzione se, e solo se, risulta det A 6= 0. Se ciò accade, la soluzione del sistema è allora
data da:
X = (x1 , x2 , ..., xn )T ∈ IKn , (5.30)
ove
x1 = (det A)−1 det A(1) , ..., xi = (det A)−1 det A(i) , ..., xn = (det A)−1 det A(n) , (5.31)
avendo denotato con A(i) la matrice ottenuta dalla A, sostituendovi, in luogo della i-ma colonna, la colonna
B dei termini noti.
La somma che compare a secondo membro della (5.33) è appunto il valore del determinante della matrice A(i)
ottenuta dalla A, sostituendovi, in luogo della i-ma colonna, la colonna B dei termini noti, onde l’asserto.
DX = 0, (5.34)
Osserviamo che la matrice dei coefficienti che compaiono nei primi membri delle equazioni di (5.36) è la
matrice B il cui determinante è diverso da zero. Pertanto, fissando un valore arbitrario per le incognite
xp+1 , xp+2 , ...., xn che compaiono nei secondi membri, il sistema (5.36) ammette esattamente (a norma della
prop. 68.) una soluzione nelle incognite x1 , x2 , ..., xp .
Fissiamo allora: ½
xi = 0 i = p + 2, p + 3, ..., n
. (5.37)
xi = 1 i=p+1
In corrispondenza di tali valori determiniamo la soluzione y1,1 , y1,2 , ..., y1,p del sistema (5.36). Evidentemente,
allora, la n-pla:
(y1,1 , y1,2 , ..., y1,p , 1, 0, ..., 0) , (5.38)
è soluzione di (5.36) e quindi di (5.35) e quindi del sistema (5.11) ad esso equivalente.
Procedendo in modo analogo possiamo fissare, poi:
½
xi = 0 i = p + 1, p + 3, ..., n
. (5.39)
xi = 1 i=p+2
Scegliamo, cioè, il valore nullo per ognuna delle xp+1 , xp+2 , ..., xn , fatta eccezione per xp+2 che poniamo uguale
ad 1. Una tale scelta delle xp+1 , xp+2 , ..., xn , dà luogo alla soluzione
di (5.36) e quindi di (5.11). Procedendo in modo simile, poichè è possibile scegliere in n − p modi diversi
la variabile a secondo membro di (5.36) cui attribuire il valore uno (attribuendo alle altre il valore zero),
possiamo costruire le n − p soluzioni distinte di (5.11) che seguono:
Le n − p soluzioni (5.41) possono essere pensate come le righe di una matrice S ad n − p righe ed n colonne
il cui rango è uguale a n − p (le ultime n − p colonne di S formano la matrice identica In−p ). Pertanto, le
soluzioni (5.41) sono n − p soluzioni indipendenti di (5.11).
Poichè (cfr. prop. 61) lo spazio S0 delle soluzioni di (5.11) ha dimensione n − p, le soluzioni (5.41)
costituiscono una base per S0 .
righe e colonne di A. Con considerazioni analoghe a quelle svolte nei paragrafi precedenti è facile provare che
(5.7) equivale a: ⎧
⎪
⎪ a1,1 x1 + a1,2 x2 + ... + a1,p xp = b1 − a1,p+1 xp+1 − ... − a1,n xn
⎪
⎨ a2,1 x1 + a2,2 x2 + ... + a2,p xp = b2 − a2,p+1 xp+1 − ... − a2,n xn
.. . (5.42)
⎪
⎪ .
⎪
⎩
ap,1 x1 + ap,2 x2 + ... + ap,p xp = bp − ap,p+1 xp+1 − ... − ap,n xn
Se, in (5.42) fissiamo arbitrariamente le incognite xp+1 , xp+2 , ..., xn , che compaiono nei secondi membri
delle equazioni del sistema, il (5.42) diviene un sistema di p equazioni in p incognite con determinante della
matrice B dei coefficienti diverso da zero; in tal caso allora esiste ed è unica la soluzione nelle incognite
x1 , x2 , ..., xp . Per comodità conviene allora porre:
xi = 0 i = p + 1, p + 2, ..., n, (5.43)
cioè porre uguali a zero tutte le suddette incognite. Detta allora z1 , z2 ..., zp la soluzione ottenuta per (5.42) in
conseguenza di tale scelta, allora la n-pla (z1 , z2 ..., zp , 0, 0, ..., 0) risulta soluzione di (5.42) e quindi del sistema
(5.7) ad esso equivalente.
A norma della prop. 63 l’insieme S delle soluzioni di (5.7) è data dall’insieme dei vettori di IKn ciascuno
dei quali è somma di (z1 , z2 ..., zp , 0, 0, ..., 0) con un vettore dello spazio S0 delle soluzioni del sistema omogeneo
associato a (5.7).
44 CAPITOLO 5. SISTEMI LINEARI
Capitolo 6
DIAGONALIZZAZIONE
i 6= j =⇒ ai,j = 0. (6.1)
Pertanto, la matrice A risulta diagonale se, e solo se, sono nulli tutti i suoi elementi che non giacciono
sulla diagonale principale. Ad esempio risultano diagonali le matrici nulla ed identica.
Sia ora L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Diremo che L è diagonalizzabile se, e
solo se, esiste una base B di IKn tale che la matrice ABL,B associata ad L, rispetto alla base B, sia una matrice
diagonale.
Diremo che la matrice quadrata A = (ai,j ) ∈ M(n × n, IK) è diagonalizzabile se, e solo se, l’endomorfismo
n n
LNA,N di IK , associato ad A, quando nello spazio IK è fissata la base naturale N , risulta diagonalizzabile.
Al fine di determinare condizioni per stabilire l’eventuale natura diagonalizzabile di una matrice, comin-
ciamo con il dare la seguente definizione. Siano L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn
B0
e B e B0 due basi per IKn . Denotiamo con A = AB 0
L,B e A = AL,B0 le matrici associate ad L quando in IK
n
0 0
sono fissate le basi B e B (rispettivamente). Le matrici A ed A si dicono simili se
Allo stesso modo la proprietà simmetrica discende banalmente dalla 6.2; si ha infatti
X = C −1 Y C ⇒ Y = CXC −1 . (6.4)
00
B
Consideriamo ora la matrice Z = ZL,B 00 associata alla applicazione lineare L quando sia stata fissata una base
n
B00 di IK , e supponiamo che Y SZ; esiste quindi D ∈ M(n × n, IK) tale che Y = D−1 ZD. Sostituendo la
precedente nella X = C −1 Y C che esprime la similitudine tra X ed Y si ottiene
X = C −1 (D−1 ZD)C
= (C −1 D−1 )Z(DC)
= (DC)−1 Z(DC), (6.5)
ovvero XSZ. Nella precedente deduzione si è fatto uso della associatività del prodotto righe per colonne e
del fatto che l’inversa del prodotto è uguale al prodotto delle inverse prese in ordine inverso. Dal supporre
XSY e Y SZ discende XSZ (proprietà transitiva).
45
46 CAPITOLO 6. DIAGONALIZZAZIONE
Proposizione 71 Siano L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn e B e B0 due basi per
B0
IKn . Dette A = AB 0 n
L,B e A = AL,B0 le matrici associate ad L quando in IK sono fissate le basi B e B
0
B n
(rispettivamente), se C = Aid,B0 è la matrice associata all’identità di IK quando si passa dalla base B alla
base B0 , necessariamente risulta:
A = C −1 A0 C. (6.6)
Dimostrazione La matrice AB
id,B0 è (cfr. (4.45)) data da C
−1
. Dalla (4.33) segue allora che:
0 0
AB B B B
L,B = Aid,B AL,B0 Aid,B0 . (6.7)
Proposizione 72 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta
diagonalizzabile se, e solo se, esiste una base B = (v1 , v2 , ..., vn ) di IKn costituita da autovettori di L.
Dimostrazione Se esiste una base B = (v1 , v2 , ..., vn ) costituita da autovettori di L, siano λ1 , λ2 , ..., λn
gli autovalori ad essi relativi, rispettivamente. Allora, ovviamente, per ogni j = 1, ..., n, risulta:
L(vj ) = λj vj . (6.9)
La j-ma colonna Aj della matrice AB L,B associata ad L, rispetto alla base B è la colonna delle coordinate di
L(vj ) valutate rispetto alla base B; pertanto risulta Aj = (0, ..., 0, λj , 0, ..., 0)T . Ne segue che:
⎛ ⎞
λ1 0 ··· 0
⎜ 0 λ2 ··· 0 ⎟
⎜ ⎟
AB
L,B = ⎜ .. .. .. .. ⎟. (6.10)
⎝ . . . . ⎠
0 0 0 λn
Abbiamo così visto che se esiste una base B = (v1 , v2 , ..., vn ) di IKn costituita da autovettori di L, allora AB
L,B
risulta diagonale, onde L è diagonalizzabile. Supponiamo ora che L sia diagonalizzabile e sia B una base di
IKn tale che AB L,B risulti diagonale e quindi della forma (6.10). In tal caso, ciascuno dei vettori di B verifica
la (6.9) e risulta quindi un autovettore di autovalore relativo λj . Abbiamo così provato l’asserto.
Dalla prop. precedente subito segue che:
Proposizione 73 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Allora L risulta
diagonalizzabile se, e solo se, esistono n autovettori indipendenti di L.
Dimostrazione Esistono n autovettori indipendenti se, e solo se, esiste una base di IKn costituita da
autovettori di L.
6.2 Autospazi.
Proviamo ora che:
Proposizione 74 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Comunque preso lo
scalare λ ∈ IK, risulta individuato il sottoinsieme E(λ) di IKn così definito:
Tale sottoinsieme E(λ) è sempre un sottospazio di IKn . Inoltre, E(λ) risulta non nullo se, e solo se λ è
un autovalore di L.
6.3. RICERCA DEGLI AUTOVALORI. 47
Dimostrazione Dalla (3.9) segue che L(0) = 0; inoltre è (per ogni λ ∈ IK) λ0 = 0. Pertanto, 0 ∈ E(λ)
ed E(λ) risulta non vuoto.
Siano ora v, v0 ∈ E(λ); allora è L(v) = λv, L(v0 ) = λv0 . Se k, k0 ∈ IK, risulta:
Dalla (6.12) segue che E(λ), contenendo due vettori, contiene ogni loro combinazione lineare; abbiamo così
completamente provato che E(λ) è un sottospazio di IKn .
Ora, E(λ) contiene un vettore non nullo v di IKn se, e solo se v è un autovettore cui è associato l’autovalore
λ.
Se λ è un autovalore dell’endomorfismo L : IKn −→ IKn , diremo che il sottospazio E(λ) è l’autospazio di
L relativo a λ.
Proposizione 75 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se B è una base per IKn ,
sia A = AB
L,B . Allora lo scalare λ di IK, risulta un autovalore di L se, e solo se, risulta:
Dimostrazione Dalla prop. precedente segue che λ è un autovalore di L se, e solo se, esiste un vettore
non nullo v ∈ IKn tale che:
L(v) = λv. (6.14)
Detta X la colonna delle coordinate di v ∈ IKn , valutate rispetto a B, la (6.14) equivale alla:
AX = λX. (6.15)
Proposizione 76 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se B e B0 sono due basi
B0
per IKn , siano A = AB 0 n
L,B ed A = AL,B0 le matrici associate ad L quando in IK sono fissate le basi B e B
0
A − λI = C −1 A0 C − λI, (6.20)
A − λI = C −1 A0 C − C −1 λIC, (6.21)
48 CAPITOLO 6. DIAGONALIZZAZIONE
da cui si trae:
A − λI = C −1 (A0 − λI)C. (6.22)
In forza del teorema di Binet (equazione (A.89) in Appendice A), dalla (6.22) segue:
¡ ¢
det(A − λI) = det C −1 det(A0 − λI) det (C) . (6.23)
¡ ¢
Dalla (A.92) segue che det C −1 = (det (C))−1 ; dalla (6.23) segue allora:
Proposizione 77 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Gli autovalori di L sono
tutti e soli gli zeri di IK del polinomio caratteristico di L.
Abbiamo visto che uno scalare λ ∈ IK è un autovalore di L se, e solo se esso risulta uno zero del polinomio
caratteristico di L. Diremo che l’autovalore λ e ha molteplicità algebrica p se, e solo se, la sua molteplicità
algebrica, quale zero del polinomio caratteristico è esattamente uguale a p; cioè se, e solo se, il polinomio
e p , ma non per (λ − λ)
caratteristico di L risulta divisibile per (λ − λ) e p+1 .
Proposizione 78 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi v1 , v2 , ..., vm
autovettori di L relativi (rispettivamente) agli autovalori λ1 , λ2 , ..., λm a due a due distinti. In tali ipotesi
v1 , v2 , ..., vm risultano necessariamente indipendenti.
Moltiplicando ambo i membri della (6.26) per l’autovalore λt+1 subito otteniamo:
à t+1 ! t+1
X X
λt+1 ki vi = λt+1 (ki vi ) = 0. (6.27)
i=1 i=1
da cui segue:
t+1
X t+1
X
ki (λi vi ) = λi (ki vi ) = 0. (6.29)
i=1 i=1
Il primo membro della (6.30) è una combinazione lineare nulla dei vettori v1 , v2 , ..., vt che, in forza della
ipotesi induttiva (6.25), sono indipendenti. Pertanto, necessariamente risulta:
Gli autovalori λ1 , λ2 , ..., λt sono tutti distinti da λt+1 e dalla (6.31) subito segue:
ki = 0 i = 1, 2, ..., t. (6.32)
Proposizione 79 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Se esistono n autovalori
λ1 , λ2 , ..., λn di L, a due a due distinti, allora L risulta necessariamente diagonalizzabile.
Proposizione 80 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm
autovalori di L a due a due distinti. Allora, necessariamente, ogni vettore w della somma
Ciascun addendo della forma wi = (vi − vi0 ) è la differenza di due vettori di E(λi ), onde wi ∈ E(λi ) e dalla
(6.39) segue:
Xm
wi = 0. (6.40)
i=1
Gli addendi a primo membro della (6.40) sono allora tutti nulli; altrimenti la (6.40) esprimerebbe la dipendenza
lineare di autovettori relativi ad autovalori a due a due distinti e la prop. 78 esclude che ciò possa accadere.
Abbiamo così provato che, per ogni i = 1, ..., m, risulta:
onde è:
vi = vi0 i = 1, ..., m. (6.42)
50 CAPITOLO 6. DIAGONALIZZAZIONE
Ogni vettore w della somma E(λ1 ) + E(λ2 ) + ... + E(λm ) si scrive dunque in modo univoco nella forma
v1 + v2 + ... + vm con
vi ∈ E(λi ), i = 1, ..., m, (6.43)
da cui
E(λ1 ) + E(λ2 ) + ... + E(λm ) = E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λm ). (6.44)
Proposizione 81 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm
autovalori di L a due a due distinti e supponiamo che le basi degli autospazi E(λ1 ), E(λ2 ), ..., E(λm ) ad essi
relativi siano, rispettivamente
Dimostrazione Supponiamo che per la seguente combinazione lineare dei vettori di B, a coefficienti in
IK, risulti:
m Xdj
X
kj,i vj,i . (6.47)
j=1 i=1
Poniamo allora:
dj
X
kj,i , vj,i = wj j = 1, ..., m. (6.48)
i=1
Dalla (6.48) segue che, per i = 1, ..., m, risulta wi ∈ E(λi ); pertanto, ogni addendo a primo membro della
(6.49) è necessariamente nullo. Altrimenti la (6.49) esprimerebbe la dipendenza lineare di autovettori relativi
ad autovalori a due a due distinti e la prop. 78 esclude che ciò possa accadere. Pertanto è, per ogni i = 1, ..., m:
wi = 0. (6.50)
Poichè i vettori di Bi costituiscono una base per E(λi ), essi risultano indipendenti, onde dalla (6.51) segue
che, per i = 1, ..., m, necessariamente risulta:
Ne segue che la (6.49) implica che risultano tutti nulli i coefficienti che in essa compaiono a primo membro,
onde l’indipendenza dei vettori di B, cioè l’asserto.
Possiamo ora provare che:
Proposizione 82 Sia L : IKn −→ IKn un endomorfismo dello spazio vettoriale IKn . Siano poi λ1 , λ2 , ..., λm
tutti gli autovalori di L. Allora L risulta diagonalizzabile se, e solo se, la somma delle dimensioni degli
autospazi E(λ1 ), E(λ2 ), ..., E(λm ), relativi a λ1 , λ2 , ..., λm (rispettivamente), risulta uguale ad n.
Supponiamo ora che L risulti diagonalizzabile, onde esiste una base B per IKn costituita da n autovettori
di L. Siano ora B1 , B2 , ..., Bm i sottoinsiemi di B così definiti, per i = 1, ..., m:
v ∈ Bi ⇐⇒ v ∈ B, v ∈ E(λi ). (6.53)
Evidentemente, B1 , B2 , ..., Bm risultano a due a due disgiunti ed inoltre la dimensione di E(λi ) è almeno pari
al numero dei vettori di Bi (poichè tali vettori appartengono al sottospazio E(λi ) e risultano indipendenti in
quanto appartenenti a B). Detta di la dimensione di E(λi ), allora risulta:
m
X
di = q ≥ n. (6.54)
i=1
Dalla prop. precedente segue che:
m
X
di = q ≤ n. (6.55)
i=1
Pertanto, dalle (6.54) e (6.55) segue l’asserto.
7.1 Definizione.
Sia VIK uno spazio vettoriale costruito sul campo IK. Sia poi
un’applicazione del quadrato cartesiano di VIK in IK, cioè un’applicazione che ad ogni coppia ordinata (v, w)
di vettori di V associa uno scalare σ(v, w) ∈ IK. Diremo che σ è un prodotto scalare definito in V se
risultano verificati i seguenti assiomi:
Se σ : VIK × VIK −→ IK è un prodotto scalare definito in V diremo che lo scalare σ(w, v) è il prodotto
scalare dei vettori v e w.
Cominciamo con il provare che:
Proposizione 85 Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ : VIK × VIK −→ IK è un prodotto
scalare definito in V, allora necessariamente risulta:
53
54 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.
7.2 Esempi.
Un esempio di prodotto scalare, che diremo nullo, definito nello spazio vettoriale V è dato (qual che sia lo
spazio V) dall’applicazione σ : VIK × VIK −→ IK così definita:
Sia ora IKn lo spazio delle n-ple ordinate di elementi del campo IK. Se
L’applicazione σ : IKn × IKn −→ IK così definita, è un prodotto scalare definito in IKn , come è immediato
verificare. Diremo che il prodotto scalare così definito in IKn è l’ordinario prodotto scalare definito in IKn .
7.3 Ortogonalità.
Premettiamo la:
Proposizione 86 Sia VIK uno spazio vettoriale costruito sul campo IK. Se σ : VIK × VIK −→ IK è un prodotto
scalare definito in V, allora necessariamente risulta:
v ⊥σ w ⇐⇒ σ(v, w) = 0. (7.17)
Proposizione 87 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in
V. Allora la relazione ⊥σ di ortogonalità rispetto a σ risulta una relazione simmetrica definita in V, cioè:
∀v, w ∈ V, v ⊥σ w ⇐⇒ w ⊥σ v. (7.18)
Proposizione 88 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in
V. Allora necessariamente risulta:
∀v ∈ V, v ⊥σ 0. (7.19)
Cioè, il vettore nullo di V risulta ortogonale, rispetto a σ, ad ogni vettore dello spazio.
Sia ora I 6= ∅ un qualsiasi insieme non vuoto di vettori di V. Denoteremo con I⊥σ la totalità dei vettori
di V, ciascuno dei quali sia ortogonale, rispetto al prodotto scalare σ definito in V, ad ogni vettore di I; cioè:
w ∈ I⊥σ ⇐⇒ ∀v ∈ I, w ⊥σ v. (7.20)
Proposizione 89 Siano VIK uno spazio vettoriale costruito sul campo IK e σ un prodotto scalare definito in
V. Se I 6= ∅ è un qualsiasi insieme non vuoto di vettori di V, allora l’insieme I⊥σ definito in (7.20) risulta
un sottospazio di V che diremo ortogonale ad I (rispetto a σ). Inoltre risulta
cioè il sottospazio ortogonale all’insieme non vuoto I coincide con il sottospazio ortogonale al sottospazio hIi
di V generato da I.
I⊥σ 6= ∅. (7.22)
∀v ∈ I, σ(v,h1 w1 + h2 w2 ) = 0. (7.25)
Pertanto, se w1 e w2 ∈ I⊥σ , allora ogni loro combinazione lineare h1 w1 + h2 w2 risulta ortogonale ad ogni
vettore di I e quindi appartiene a I⊥σ . Da quanto detto e dalla (7.22) segue che I⊥σ è un sottospazio di V.
Per provare l’ultima parte dell’asserto basta osservare che se w ∈ I⊥σ allora esso risulta ortogonale ad
ogni vettore di I e quindi (cfr. (7.3) e (7.4)) ad ogni loro combinazione lineare; pertanto, se w ∈ I⊥σ allora
w ∈ hIi⊥σ . Se invece w ∈ hIi⊥σ , allora w risulta ortogonale ad ogni vettore di hIi e quindi di I, onde
w ∈ I⊥σ .
AσB è quindi la matrice il cui elemento sulla i-ma riga e j-ma colonna è uguale al prodotto scalare σ(vi , vj )
dei vettori vi e vj della base B. Diremo che AσB è la matrice associata al prodotto scalare σ rispetto
alla base B di V.
Proviamo al riguardo che:
Proposizione 90 Sia ora VnIK uno spazio vettoriale di dimensione finita n (n ≥ 1) costruito sul campo IK e
σ un prodotto scalare definito in V. Se B = (vi , ..., vn ) è una base per V, sia A = AσB la matrice associata a
σ rispetto alla base B. Allora la matrice A risulta simmetrica, cioè:
A = AT . (7.27)
Dimostrazione La (7.2) implica che ai,j = σ(vi , vj ) = σ(vj , vi ) = aj,i . Pertanto, A è simmetrica e
sussiste la (7.27). Per provare la (7.28), osserviamo che, posto:
ed è: n n n X
n
X X X
xi yj σ (vi , vj ) = xi yj σ (vi , vj ) . (7.33)
i=1 j=1 i=1 j=1
Proposizione 93 Sia VnIK uno spazio vettoriale di dimensione finita n (n ≥ 2) costruito sul campo IK nel
quale è definito il prodotto scalare σ. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Allora B è ortogonale
rispetto a σ se, e solo se, i vettori di B risultano a due a due ortogonali rispetto a σ, cioè se, e solo se risulta:
∀vi , vj ∈ B; vi 6= vj =⇒ vi ⊥σ vj . (7.44)
∀v ∈ V, σ(v, w) = 0 =⇒ w = 0. (7.46)
Un esempio di prodotto scalare non degenere, è fornito dall’ordinario prodotto scalare σ (cfr. (7.13))
definito nello spazio vettoriale IKn (n ≥ 1) delle n-ple ordinate di elementi del campo IK. In tal caso infatti,
se il vettore w = (y1 , y2 ..., yn ) risulta ortogonale ad ogni vettore di IKn , esso deve, in particolare, risultare
ortogonale ad ogni vettore ei della base naturale N di IKn ; l’ordinario prodotto scalare σ(ei , w) è dato dalla
i-ma componente yi di w; pertanto, risulta
yi = 0, ∀i = 1, ..., n. (7.47)
Ne segue w = 0.
Nel seguito, ci occuperemo di una particolare classe di prodotti scalari non degeneri, definiti in spazi
vettoriali costruiti sul campo reale.
Siano dunque IK = IR e VIR uno spazio vettoriale costruito sul campo reale IR. Se σ : VIR × VIR −→ IR è
un prodotto scalare definito in V, diremo che σ è definito positivo se esso verifica le:
∀v ∈ V, σ(v, v) ≥ 0, (7.48)
σ(v, v) = 0 ⇐⇒ v = 0. (7.49)
Evidentemente, ogni prodotto scalare definito positivo risulta non degenere (poichè per ogni vettore non
nullo v, esiste un vettore w ad esso non ortogonale ed è il vettore w = v).
Proposizione 94 Sia VIR uno spazio vettoriale costruito sul campo dei reali, nel quale sia introdotto il prodot-
to scalare definito positivo σ. Se v1 , v2 , ...vm sono vettori non nulli di V, a due a due ortogonali (rispetto a
σ), allora necessariamente risulta:
Dimostrazione Sia:
m
X
v= xj vj , (7.51)
j=1
58 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.
L’elemento σ (vi , vj ) che compare nel secondo membro della (7.54) è (poichè i vettori v1 , v2 , ...vm sono a due
a due ortogonali per ipotesi) uguale a zero, ogni qual volta risulti i 6= j. Pertanto, risulta:
m
X
xj σ (vi , vj ) = xi σ (vi , vi ) . (7.55)
j=1
Proposizione 95 La totalità T dei vettori di IRm , pensati come vettori colonna, ciascuno dei quali è orto-
gonale ad ogni colonna di A è un sottospazio di IRm .
Dimostrazione Sia
Y ∈ S ⇐⇒ ∃ (λ1 , λ2 , ..., λn ) ∈ IRn , (7.64)
tale che: n
X
Y = λj Aj . (7.65)
j=1
Se U ∈ T risulta: ¡ ¢
σ U, Ai = 0 i = 1, 2, ..., n, (7.66)
cioè:
U ⊥ Ai i = 1, 2, ..., n, (7.67)
ed è: ⎛ ⎞
n
X n
X n
¡ ¢ X
⎝
σ U, λj Aj⎠
= j
λj σ U, A = λj 0 = 0. (7.68)
j=1 j=1 j=1
Ne segue che:
Y ∈ S =⇒ σ (Y, U ) = 0 ∀U ∈ T. (7.69)
La (7.69) si inverte semplicemente e ne segue l’asserto.
Definiamo ora il concetto di norma.
Sia VIR un spazio vettoriale costruito sul campo IR. Sia poi
k·k : VIR −→ IR, (7.70)
una applicazione di VIR in IR. Diremo che k·k è una norma definita in V se risultano verificati i seguenti
assiomi:
Proposizione 98 Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto
scalare σ definito positivo. Se v è un vettore non nullo di V, allora il vettore
v0 = kvk−1 v, (7.79)
ottenuto dal prodotto di v per l’inverso della sua norma euclidea (suo modulo), ha norma euclidea e modulo
b.
unitari. Tale vettore di norma unitaria sarà detto versore del vettore v, e verrà indicato con il simbolo v
σ(w, v) σ(w, v)
= , (7.80)
σ(v, v) kvk2
Proposizione 99 Sia VIR uno spazio vettoriale costruito sul campo reale IR nel quale sia introdotto il prodotto
scalare σ definito positivo. Se v è un vettore non nullo di V e w ∈ V, sia c il coefficiente di Fourier di w
rispetto a v. Allora il vettore v ed il vettore w0 = w − cv sono ortogonali, rispetto a σ.
σ(w, v)
w0 = w − v. (7.81)
kvk2
Proposizione 100 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e
nel quale sia introdotto il prodotto scalare σ definito positivo. È allora possibile trovare una base
B = (w1 , w2 , ..., wn ) ,
Dimostrazione Sia (v1 , v2 , ..., vn ) una base per V. Sono allora individuati i vettori:
w1 = v1 ,
σ(v2 , w1 )
w2 = v2 − 2 w1 ,
kw1 k
..
. (7.84)
n−1
X σ(vn , wi )
wn = vn − 2 wi .
i=1 kwi k
σ(w2 , w1 ) = 0. (7.85)
7.6. PRODOTTO SCALARE NON DEGENERE. PRODOTTI DEFINITI POSITIVI. 61
Proviamo ora che w3 risulta ortogonale, rispetto a σ, sia a w2 che a w1 . A tal fine osserviamo che:
σ(v3 , w2 ) σ(v3 , w1 )
σ(w3 , w1 ) = σ(v3 , w1 ) − 2 σ(w2 , w1 ) − σ(w1 , w1 ). (7.86)
kw2 k kw1 k2
Pertanto, ogni vettore vi appartiene al sottospazio hw1 , w2 , ..., wi i di V generato dai vettori w1 , w2 , ..., wi e
quindi anche al sottospazio hw1 , w2 , ..., wn i generato da w1 , w2 , ..., wn . Cioè:
vi ∈ hw1 , w2 , ..., wn i i = 2, 3, .., n. (7.94)
Dalla (7.94) segue allora:
Vn = hv1 , v2 , ..., vn i ≤ hw1 , w2 , ..., wn i ≤ Vn . (7.95)
Dalla (7.95) risulta:
Vn = hw1 , w2 , ..., wn i . (7.96)
Gli n vettori w1 , w2 , ..., wn generano allora lo spazio n-dimensionale V e quindi costituiscono una base per
esso. Da quanto ora detto e dalla (7.92) segue che (w1 , w2 , ..., wn ) è una base di V, ortogonale rispetto al
prodotto scalare σ.
Il procedimento descritto nella proposizione precedente è detto metodo di ortogonalizzazione di
Gram-Schmidt. Tale metodo fornisce una tecnica per costruire una base ortogonale B0 , a partire da una
base qualunque B dello spazio vettoriale Vn .
Sia ora VnIR uno spazio vettoriale di dimensione finita n, costruito sul campo reale, nel quale sia stato
introdotto un prodotto scalare definito positivo σ. Sia poi B = (v1 , v2 , ..., vn ) una base per V. Diremo che B
è ortonormale rispetto a σ se essa è ortogonale rispetto a σ e se inoltre risulta:
|vi | = 1 i = 1, ..., n. (7.97)
Quindi, una base è ortonormale rispetto a σ, se risulta costituita da vettori di modulo unitario ed a due a
due ortogonali. Evidentemente, dalla proposizione 98 e con semplici calcoli, segue che:
Proposizione 101 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR
e nel quale sia introdotto il prodotto scalare σ definito positivo. Se B = (w1 , w2 , ..., wn ) è una base per V,
ortogonale rispetto a σ, allora necessariamente i vettori:
wi
ui = i = 1, ..., n (7.98)
kwi k
costituiscono una base per V, ortonormale rispetto a σ.
62 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.
Inoltre:
Proposizione 102 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR e nel
quale sia introdotto il prodotto scalare σ definito positivo. Allora esiste almeno una base B per V, ortonormale
rispetto a σ. Inoltre, la matrice AσB associata a σ, quando in V è fissata la base B, coincide con la matrice
identica In .
Dimostrazione Dalle prop. 100 e 101 segue l’esistenza di B. Dalla definizione di AσB segue poi che tale
matrice coincide con In .
Osserviamo esplicitamente che, se in V è fissata una base ortonormale B, allora dette X ed Y le colonne
delle coordinate dei vettori v e w (rispettivamente), valutate rispetto a B, necessariamente risulta (cfr. prop.
92 e 102):
σ(v, w) = X T In Y = X T Y. (7.99)
Siano VnIR e WnIR due spazi vettoriali di dimensione n costruiti sul campo dei reali. In essi siano introdotti
i prodotti scalari σ e σ 0 (rispettivamente) entrambi definiti positivi. Proviamo, al riguardo, che:
Dimostrazione Poichè σ è definito positivo, è possibile trovare una base ortonormale (rispetto a σ) per
V; sia essa B = (v1 , v2 , ...vn ). Allora risulta:
¡ ¢
σ vi , vj = δ ij i = 1, 2, ..., n j = 1, 2, ..., n. (7.101)
Poniamo ora:
wi = L (vi ) i = 1, 2, ..., n. (7.102)
Dalla (7.100) e (7.101) risulta:
Pertanto i vettori w1 , w2 , ...wn di W sono a due e due ortogonali e di modulo unitario. Ne segue (cfr. prop.
94) che essi risultano indipendenti e che, quindi, formano una base B0 ortonormale (rispetto a σ 0 ) per lo spazio
n-dimensionale W.
Sia ora v ∈V. Poichè B è una base per V risultano univocamente determinati gli scalari x1 , x2 , ...xn ∈ IR
tali che:
Xn
v= xi vi . (7.104)
i=1
Sia ora w =L (v). Esso si scrive in esattamente un modo come combinazione lineare dei vettori di B0 . Poniamo:
n
X
w= yi wi . (7.106)
i=1
L’applicazione L porta allora il vettore v ∈V di coordinate (x1 , x2 , ...xn ) (valutate rispetto a B) nel vettore
w ∈W di coordinate (x1 , x2 , ...xn ) (valutate rispetto a B0 ). La L è allora manifestamente lineare.
Proposizione 104 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR
e nel quale sia introdotto il prodotto scalare σ definito positivo. Sia poi B = (u1 , u2 , ..., un ) una base per V
ortonormale rispetto a σ. Se B0 = (v1 , v2 , ..., vn ) è una base per V, allora B0 è ortonormale rispetto a σ, se e
solo se, detta
A = ABid,B0 , (7.112)
la matrice associata all’applicazione lineare identica di V in sè, quando si passa dalla base B alla base B0 ,
risulta:
AAT = In . (7.113)
0
Dimostrazione Sia B = AB id,B . La j − ma colonna di B è la colonna delle coordinate di vj valutate
rispetto a B. L’elemento posto sulla i-ma riga e j-ma colonna della matrice B T B è allora dato (cfr. (7.99))
dal prodotto scalare di vi e vj . Pertanto, la base B0 è ortonormale, rispetto a σ, se, e solo se, risulta:
B T B = In . (7.114)
Poichè è B = A−1 , dalla (7.114) segue che B 0 è ortonormale, rispetto a σ, se, e solo se, risulta:
Proposizione 105 Sia VnIR uno spazio vettoriale di dimensione finita n ≥ 1, costruito sul campo reale IR
e nel quale sia introdotto il prodotto scalare σ definito positivo. Siano poi W un sottospazio di V e W⊥σ il
complemento ortogonale di W, rispetto a σ. Allora detta p la dimensione di W e detta q la dimensione di
W⊥σ , necessariamente risulta:
p + q = n. (7.116)
Inoltre, lo spazio V risulta somma diretta di W e W⊥σ , cioè:
V = W ⊕ W⊥σ . (7.117)
Dimostrazione Se W ha dimensione p, sia B0 = (u1 , u2 , ..., up ) una base ortonormale per esso (certo
esistente in forza della prop. 102). È allora possibile trovare vettori vp+1 , vp+2 , ..., vn in modo che
sia una base per V. Con il metodo di ortogonalizzazione di Gram-Schmidt è poi possibile costruire da B00 una
base ortogonale
B000 = (u1 , u2 , ..., up , wp+1 , ..., wn ) (7.119)
64 CAPITOLO 7. PRODOTTI SCALARI. TEORIA GENERALE.
per V. Dividendo ogni vettore di B000 per il suo modulo si ottiene una base ortonormale
per V. Osserviamo esplicitamente che i primi p vettori di B sono i vettori della base B0 di W.
Possiamo ora provare che:
v ∈ W⊥σ ⇐⇒ v ⊥σ ui i = 1, 2, ..., p. (7.121)
Infatti, se v ∈ W⊥σ , allora v risulta ortogonale ad ogni vettore di W e quindi anche ai vettori u1 , u2 , ..., up
della base B0 di W. Se invece v è ortogonale ad ogni vettore di B0 , allora (cfr. (7.3) e (7.4)) esso risulta
ortogonale ad ogni loro combinazione
P lineare e quindi ad ogni vettore di W. Si è così vista la (7.121). Dalla
(7.121) segue che se v ∈ V e v = ni=1 xi ui , allora risulta:
Pertanto, si ha W⊥σ = hup+1 , up+2 , ..., un i, onde per la dimensione q di W⊥σ risulta:
q = n − p. (7.123)
poichè i primi p addendi della combinazione lineare a secondo membro della (7.124) appartengono a W ed gli
ultimi q addendi di tale combinazione lineare appartengono a W⊥σ , il vettore v risulta somma di un elemento
di W e di un elemento di W⊥σ . Pertanto è:
V = W + W⊥σ . (7.125)
Proposizione 106 Sia VnIK uno spazio vettoriale di dimensione finita n ≥ 1, costruito campo IK e nel quale
sia introdotto il prodotto scalare non degenere (cfr. (7.46)) σ. Siano poi W un sottospazio di V e W⊥σ
il complemento ortogonale (costituito dalla totalità dei vettori di V, ciascuno dei quali risulta ortogonale,
rispetto a σ, ad ogni vettore di W) di W. Allora, detta p la dimensione di W e detta q la dimensione di W⊥σ ,
necessariamente risulta
p + q = n. (7.126)
AX = B, (7.127)
ove A è una matrice m × n, è compatibile se, e solo se, la colonna B dei termini noti dipende dalle colonne di
A; cioè (dette A1 , A2 , ..., An le colonne di A):
®
(7.127) è compatibile ⇐⇒ B ∈ A1 , A2 , ..., An = S. (7.128)
Poichè il sottospazio T di cui all’enunciato della proposizione 96 è il luogo delle soluzioni del sistema omogeneo
AT U = 0 risulta che il teorema di Rouchè-Capelli implica (unitamente a quanto detto in queste righe):
Proposizione 107 Il sistema (7.127), ove A e B sono ad elementi reali, è compatibile se, e solo se, la
colonna B dei termini noti è ortogonale ad ogni soluzione del sistema omogeneo duale AT U = 0.
DIAGONALIZZAZIONE DEGLI
ENDOMORFISMI SIMMETRICI IN
IRn
8.1 Premessa.
Premettiamo le:
X T X ∈ IR; (8.1)
T
X X ≥ 0; (8.2)
T
X X = 0 ⇐⇒ X = 0. (8.3)
Dimostrazione Evidentemente è:
n
X
X TX = xj xj . (8.4)
j=1
Ne segue:
n
X n
X n
X n
X
X TX = xj xj = xj xj = xj xj = xj xj = X T X, (8.5)
j=1 j=1 j=1 j=1
onde la (8.1).
Inoltre, se xj ∈ IR, allora xj xj = x2j ≥ 0; se invece xj ∈
/ IR, risulta xj = aj + ibj , ed è xj xj = a2j + b2j ≥ 0;
T
da cui segue che X X è somma di reali non negativi, onde la (8.2).
Infine, X T X = 0 se, e solo se, risulta xj = 0, per ogni j = 1, ..., n, onde la (8.3).
Proposizione 109 Se A è una matrice quadrata simmetrica d’ordine n ad elementi reali, allora ogni soluzione
dell’equazione in λ:
det(A − λI) = 0, (8.6)
è necessariamente reale.
Dimostrazione Sia LN n n n
A,N : C −→ C applicazione lineare di C in sé, associata ad A quando in C sia
n
AX = λX; X 6= 0. (8.7)
65
66 CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN
Coniugando ambo i membri della (8.7), risulta (ricordiamo che essendo A ad elementi reali è A = A):
AX = λX. (8.8)
Dalla (8.8), segue che λ è un autovalore di L e che X è un autovettore di E(λ); (Poichè X 6= 0,è X 6= 0).
T
Consideriamo ora il prodotto X AX; tale prodotto è una matrice quadrata d’ordine uno che, quindi,
coincide con la sua trasposta, cioè:
T T
X AX = (X AX)T . (8.9)
Inoltre è:
T T
(X AX)T = X T AT (X )T = X T AT X. (8.10)
T
Poichè A è simmetrica, risulta, A = A e dalla (8.10) segue:
T
(X AX)T = X T AX. (8.11)
Dalle (8.9) e (8.11) segue:
T
X AX = X T AX. (8.12)
T
Se ne deduce (cfr. (8.7) e (8.8)): X (λX) = X T (λX). Pertanto è:
T
λ(X X) = λ(X T X). (8.13)
T
Poichè manifestamente risulta (X X) = (X T X), dalla (8.13) segue che
λ(X T X) = λ(X T X). (8.14)
Dalla (8.7) risulta X 6= 0 e per la (8.3) è X T X 6= 0. Ne segue che la (8.14) implica:
λ = λ. (8.15)
Pertanto, l’autovalore λ di L coincide con il suo coniugato λ ed è quindi reale.
A = AT . (8.17)
n
Dimostrazione Siano X ed Y le colonne delle coordinate dei vettori v e w di V valutate rispetto a B.
Poichè B è ortonormale, il prodotto scalare di v e w è:
σ(v, w) = X T Y. (8.18)
Inoltre la colonna delle coordinate di L(w) è la AY e risulta:
σ(v, L(w)) = X T (AY ). (8.19)
Analogamente, risulta:
σ(L(v), w) = (AX)T Y = X T AT Y. (8.20)
L è simmetrico se, e solo se, verifica la (8.16), la quale, in forza delle (8.19) e (8.20), equivale alla:
∀X T , Y T ∈ IRn , X T (AY ) = X T AT Y. (8.21)
T
La (8.21) è verificata se, e solo se, A = A , onde l’asserto.
Dalla proposizione precedente segue che la matrice associata ad un endomorfismo simmetrico di Vn è
simmetrica rispetto ad ogni base ortonormale (rispetto al prodotto scalare definito positivo σ) di Vn .
Proviamo anche che:
8.2. ENDOMORFISMI SIMMETRICI. 67
0
Proposizione 111 Siano B e B0 due basi ortonormali (per il prodotto scalare σ) di Vn . Sia poi C = AB id,B
la matrice associata all’identità, quando si passa dalla base B0 alla B. Se L : Vn −→ Vn è un endomorfismo
B0
simmetrico di Vn , posto A = AB L,B e B = AL,B0 , allora necessariamente risulta:
B = C T AC. (8.22)
Dimostrazione È: 0 0
AB B B B
L,B0 = Aid,B0 AL,B Aid,B . (8.23)
Inoltre risulta 0
AB B
id,B0 = (Aid,B )
−1
= C −1 ; (8.24)
0
poichè B e B sono due basi ortonormali è (cfr. prop. 104):
C −1 = C T . (8.25)
Dimostrazione Sia B una base ortonormale di Vn . In forza della prop. 110, la matrice A = AB L,B risulta
simmetrica. Il suo polinomio caratteristico è det(A − λI), e quindi gli autovalori di L sono tutte e sole le
soluzioni reali di (8.5). Dalla prop. 109 segue che ogni soluzione di (8.5) è reale. Pertanto la (8.5) ammette
n soluzioni reali, quando ciascuna di esse sia contata con la propria molteplicità, onde l’asserto.
AY = λ2 Y. (8.28)
Pertanto, è:
Poichè L è simmetrico è verificata la (8.16), la quale, tenuto conto di (8.29) e (8.30), implica:
λ2 (X T Y ) = λ1 (X T Y ), (8.31)
onde è:
(λ2 − λ1 )(X T Y ) = 0. (8.32)
Poichè è λ2 6= λ1 , risulta λ2 − λ1 6= 0, e dalla (8.32) si trae:
X T Y = 0, (8.33)
da cui segue:
σ(v1 , v2 ) = 0, (8.34)
che equivale alla (8.26), onde l’asserto.
La proposizione precedente equivale a dire che autovettori relativi ad autovalori distinti sono ortogonali
(rispetto al prodotto scalare definito positivo σ). Pertanto:
Proposizione 114 Se l’endomorfismo simmetrico L di Vn ammette n autovalori a due a due distinti, allora
ogni base B di Vn costituita da autovettori di L risulta ortogonale rispetto al prodotto scalare definito positivo
σ.
68 CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN
Dimostrazione Poichè (cfr. prop. 115) ogni vettore di W⊥σ viene mutato in un vettore ortogonale a v,
la M è un’applicazione di W⊥σ in sé. Poichè L è lineare, la M, che agisce come L sugli elementi di W⊥σ ,
risulta anch’essa lineare. La L verifica la (8.16) e quindi M verifica la (8.39), onde la prima parte dell’asserto.
Poichè σ 0 agisce sui vettori di W⊥σ come la σ, σ 0 è un prodotto scalare definito in W⊥σ che risulta definito
positivo, onde l’asserto.
Possiamo finalmente provare che:
è un endomorfismo simmetrico dello spazio vettoriale reale Vn−1 di dimensione finita n − 1, nel quale è
introdotto un prodotto scalare definito positivo σ 0 , allora necessariamente esiste una base
per W⊥σ , costituita da autovettori di M ed ortogonale rispetto al prodotto scalare σ 0 di W⊥σ definito in
(8.40).
Poichè (cfr. prop. 105) la somma di W e di W⊥σ è diretta, i vettori
Quindi, essendo B 0 costituita da vettori a due a due ortogonali, rispetto a σ 0 , che agisce come σ, la base
B = (w1 , w2 , ..., wn ) di Vn è ortogonale rispetto al prodotto scalare definito positivo σ.
Infine, wn è un autovettore di L. Poichè M agisce come L, ogni autovettore di M è un autovettore di
L e (w1 , w2 , ..., wn−1 ) è allora costituita da autovettori di L; pertanto, B è costituita da autovettori di L e
l’asserto è completamente provato.
Osserviamo esplicitamente che allora:
Dimostrazione Dalla prop. precedente, esiste un base ortogonale B = (w1 , w2 , ..., wn ) di Vn ortogonale,
rispetto al prodotto scalare definito positivo σ, costituita da autovettori di L. Dividendo ciascun vettore di
B0 per il suo modulo si ottiene la base B = (u1 , u2 , ..., un ) di cui all’asserto.
Proposizione 119 Sia L : IRn −→ IRn un endomorfismo simmetrico di IRn . Allora necessariamente esiste
una base B = (u1 , u2 , ..., un ) di IRn ortonormale, rispetto all’ordinario prodotto scalare di IRn , costituita da
autovettori di L.
Dimostrazione Poichè l’ordinario prodotto scalare di IRn è definito positivo, dalla prop. precedente,
segue l’asserto.
70 CAPITOLO 8. DIAGONALIZZAZIONE DEGLI ENDOMORFISMI SIMMETRICI IN IRN
Capitolo 9
9.1 Premessa.
In IRn sia introdotto un prodotto scalare σ. Se N = (e1 , e2 , ...en ) è la base naturale di tale spazio è allora
individuata la matrice A associata a σ (valutata rispetto ad N ). Se v e w sono vettori di IRn di colonne di
coordinate X e Y (rispettivamente), valutate rispetto ad N , allora risulta:
Evidentemente, allora, il secondo membro della (9.4) è sempre positivo se, e solo se, risulta:
Inoltre è facile vedere che se la matrice A, (valutata rispetto alla base N ) è diagonale, cioè della forma (9.2),
allora risulta:
σ è definito positivo ⇐⇒ λi > 0 i = 1, 2, ..., n. (9.6)
Consideriamo ora una situazione più generale. Sia introdotto all’uopo in IRn un prodotto scalare σ. Se
N è la base naturale di IRn , sia A la matrice associata a σ (valutata rispetto alla base N ). Evidentemente è
(cfr. 90):
A = AT . (9.7)
n n n
Sia ora L = LN A,N : IR −→ IR l’endomorfismo di IR associato alla matrice A quando sia fissata la base
naturale N .
Poichè A è simmetrica, esiste una base B = (v1 , v2 , ...vn ) ortonormale, rispetto al prodotto scalare standard
di IRn costituita da autovettori di A. Posto:
M = AN
id,B , (9.8)
71
72 CAPITOLO 9. ANCORA SUI PRODOTTI SCALARI REALI
M −1 = M T . (9.10)
Per le colonne delle coordinate X 0 ed Y 0 di v e w (rispettivamente), valutate rispetto a B, risulta (cfr. 9.8):
(
X 0 = AN
id,B X = M
−1
X
, (9.13)
Y 0 = AN
id,B Y = M
−1
Y
allora è: ½
X = M X0
. (9.14)
Y = MY 0
Sostituendo la (9.14) nella (9.12) si ha:
T ¡ ¢
σ (v, w) = (M X 0 ) A (M Y 0 ) = X 0T M T AM Y 0 . (9.15)
Dalla (9.15) segue che la matrice associata a σ, rispetto alla base B è la M T AM , cioè (cfr. 9.11) la matrice
B, cioè la forma diagonale di A. Da quanto detto posto:
⎛ ⎞
λ1 0 · · · 0
⎜ 0 λ2 · · · 0 ⎟
⎜ ⎟
B=⎜ . .. .. .. ⎟ , (9.16)
⎝ .. . . . ⎠
0 0 · · · λn
T T
risulta (cfr. (9.15) e denotato con X 0 = (x01 , x02 , ...x0n ) ed Y 0 = (y10 , y20 , ...yn0 ) ):
n
X
σ (v, w) = λi x0i yi0 . (9.17)
i=1
Evidentemente allora è:
n
X 2
σ (v, v) = λi (x0i ) . (9.18)
i=1
Proposizione 120 Sia A la matrice simmetrica diagonale definita in (9.2), associata al prodotto scalare σ
di IRn (valutata rispetto alla base naturale N ). Allora necessariamente risulta:
Proposizione 121 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n,
costruito sul campo reale IR. Se
sono due basi per V, siano A ed A0 le matrici associate a σ (rispetto a B e B0 ). Allora necessariamente risulta:
Dalla (9.26) segue (in forza del teorema di Binet, eq. (A.89) in Appendice A):
Proposizione 122 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n,
costruito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V, sia A la matrice associata a σ valutata
rispetto a B. Se σ è definito positivo, necessariamente risultano positivi tutti gli n primi minori principali di
A.
Proposizione 123 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n costru-
ito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V sia A la matrice associata a σ valutata rispetto a
B. Se il determinante di A è diverso da zero allora necessariamente il prodotto scalare σ risulta non degenere.
Pertanto, in forza della prop. 106 per il sottospazio ortogonale W⊥σ ad un sottospazio W di V, risulta:
w 6= 0 =⇒Yw 6= 0. (9.34)
Inoltre è:
∀w ∈V v ⊥ w =⇒ σ (v, w) = 0 =⇒ XvT AYw = 0 ∀Yw ∈ IRn . (9.35)
Se Yw 6= 0, essendo det(A) 6= 0, risulta AYw = Z 6= 0 (poichè il sistema omogeneo AYw = 0 non ammette
autosoluzioni); dalla (9.35) segue allora:
∀w ∈V w ⊥ v =⇒ XvT Z = 0. (9.36)
Ciò accade anche quando Z è la colonna delle coordinate di vi (i = 1, 2, ..., n); ne segue che le coordinate di
v sono tutte nulle e quindi che:
v⊥w ∀w ∈V =⇒ v = 0. (9.37)
Proposizione 124 Sia σ un prodotto scalare definito nello spazio vettoriale VnIR di dimensione finita n costru-
ito sul campo reale IR. Se B = (v1 , v2 , ...vn ) è una base per V sia A la matrice associata a σ valutata rispetto
a B. Allora, σ è definito positivo se, e solo se, risultano tutti positivi gli n primi minori principali di A.
Dimostrazione Dalla prop. 122 segue che se σ è definito positivo allora sono tutti positivi gli n minori
principali di A. Proviamo il viceversa e, a tal fine, procediamo per induzione sulla dimensione t dello spazio.
Se t = 1 la matrice A si riduce ad un elemento, positivo, che è il quadrato scalare di v1 . In tal caso
l’asserto è ovvio.
Sia ora vero l’asserto nel caso t = n − 1. Vogliamo provare che, per t = n esso è ancora vero.
Sia all’uopo W = hv1 , v2 , ...vn−1 i il sottospazio (n − 1)-dimensionale di V generato dai primi n − 1 vettori
di B. La matrice che rappresenta σ su W (valutata rispetto alla base (v1 , v2 , ...vn−1 )) è:
⎛ ⎞
a11 a12 ··· a1(n−1)
⎜ a21 a22 ··· a2(n−1) ⎟
⎜ ⎟
An−1 = ⎜ .. .. .. .. ⎟. (9.38)
⎝ . . . . ⎠
a(n−1)1 a(n−1)2 ··· a(n−1)(n−1)
Poichè sono positivi per ipotesi i primi n minori principali di A, risultano positivi i primi (n − 1) minori
principali di An−1 . Per ipotesi induttiva, il prodotto σ è definito positivo su W. Ne segue che esistono (n − 1)
vettori u1 , u2 , ...un−1 formanti una base ortonormale, rispetto a σ, del sottospazio W. Allora è:
Poichè det(A) > 0 (A = An ), il prodotto scalare σ non è degenere e (cfr. prop. 123) per il sottospazio W⊥σ
ortogonale a W, risulta:
dim (W⊥σ ) = 1. (9.40)
9.2. CRITERIO DI SYLVESTER. 75
A tal fine, procediamo per assurdo e supponiamo che così non sia; in tal caso, essendo u1 , u2 , ...un−1
indipendenti, deve necessariamente risultare che ∃ (y1 , y1 , ...yn−1 ) ∈ IRn−1 tali che:
n−1
X
w= yi ui (9.43)
i=1
Allora risulta: ⎛ ⎞
n−1
X
σ (w, ui ) = σ ⎝ yj uj , ui ⎠ i = 1, 2, ..., n − 1. (9.44)
j=1
σ (uj , ui ) = δ ij . (9.46)
u1 , u2 , ...un−1 , w, (9.49)
Dalla prop. 121 segue che essendo det(A) > 0 (per ipotesi det(A) > 0) risulta:
TENSORI ED ALGEBRA
TENSORIALE
10.1 Premessa.
Siano VIK e WIK due spazi vettoriali costruiti sul medesimo campo IK. Denoteremo la totalità delle applicazioni
lineari dello spazio vettoriale VIK nello spazio WIK con il simbolo Hom(VIK , WIK ) e la diremo insieme degli
omomorfismi di V in W.
Se L : VIK −→ WIK ed M : VIK −→ WIK sono applicazioni lineari di V in W, è allora individuata
l’applicazione [L + M] : VIK −→ WIK che diremo somma di L ed M, definita nel modo che segue:
È immediato verificare che l’applicazione [L + M] : VIK −→ WIK risulta lineare. Pertanto, la somma di
elementi di Hom(VIK , WIK ) è un elemento di Hom(VIK , WIK ).
Siano ora k un elemento del campo IK ed L un elemento di Hom(VIK , WIK ). È allora possibile definire
l’applicazione [kL] : VIK −→ WIK nel modo seguente:
È semplice verificare che l’applicazione [kL] : VIK −→ WIK risulta lineare. Pertanto, il prodotto di un
elemento del campo IK per un elemento di Hom(VIK , WIK ) è un elemento di Hom(VIK , WIK ). Il lettore potrà
facilmente provare, inoltre, che:
Proposizione 125 Se VIK e WIK sono due spazi vettoriali costruiti sul medesimo campo IK, la coppia
(Hom(VIK , WIK ), +), ove la somma di elementi di Hom(VIK , WIK ) è definita come in (10.1) è un grup-
po abeliano. Inoltre, la terna (Hom(VIK , WIK ), IK, ·), ove il prodotto di uno scalare per un elemento di
Hom(VIK , WIK ) è come definita in (10.2) è uno spazio vettoriale costruito sul campo IK.
Proposizione 126 Siano VnIK e Wm IK due spazi vettoriali costruiti sul medesimo campo IK, di dimensioni finite
n ed m (rispettivamente). Sia quindi (Hom(VIK , WIK ), IK, ·) lo spazio vettoriale degli omomorfismi di V in
W. Se sono fissate una base B per V ed una base B0 per W, ad ogni applicazione L di Hom(VIK , WIK ) risulta
associata (cfr. 46) la matrice AB
L,B0 . L’applicazione χ : Hom(VIK , WIK ) −→ M(m × n, IK) che associa ad ogni
elemento L di Hom(VIK , WIK ) la matrice AB L,B0 è un isomorfismo tra Hom(VIK , WIK ) ed M(m × n, IK).
χ(L) = AB B
L,B0 , χ(M) = AM,B0 , (10.3)
77
78 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
χ(kL) = AB B
kL,B0 = kAL,B0 = kχ(L). (10.6)
L = LB
B,B0 : VIK −→ WIK ,
associata alla matrice B, quando sono fissate per V e W le basi B e B0 (rispettivamente). Dalla prop. 49 segue
allora che χ(L) = B, onde χ è suriettiva.
Proviamo infine che ker χ si riduce al vettore nullo di Hom(VIK , WIK ). Sia a tal fine L ∈ ker χ; allora è
χ(L) è uguale alla matrice tutta nulla 0 di M(m × n, IK). Pertanto l’immagine in L di un qualunque vettore
v di V ha la colonna delle coordinate, valutate rispetto a B0 , tutta nulla ed è quindi il vettore nullo di W.
L’applicazione L è allora l’applicazione costante nulla di V in W. Poichè l’applicazione costante nulla di V in
W è il vettore nullo dello spazio Hom(VIK , WIK ), risulta che il nucleo di χ è nullo. Per quanto detto, la χ è
un isomorfismo di Hom(VIK , WIK ) in M(m × n, IK), onde l’asserto.
Dalla proposizione precedente segue che se VnIK e Wm IK sono due spazi vettoriali costruiti sul medesimo
campo IK, di dimensioni finite n ed m (rispettivamente), allora lo spazio vettoriale Hom(VIK , WIK ) degli
omomorfismi di V in W risulta isomorfo allo spazio M(m × n, IK). Pertanto la dimensione di Hom(VIK , WIK )
è uguale a quella di M(m × n, IK). Ne segue che la dimensione di Hom(VIK , WIK ) è uguale al prodotto di m
per n.
Proposizione 127 Siano VnIK uno spazio vettoriale di dimensione finita n, costruito sul campo IK e
B = (v1 , v2 , ..., vn ) ,
una base per esso. Allora le n proiezioni v1 , ..., vn costituiscono una base B ∗ per lo spazio duale V∗ dello
spazio V.
ove 0∗ è il vettore nullo di V∗ , cioè l’applicazione costante nulla di V in IK. Allora, necessariamente, risulta:
⎡ ⎤
Xn
∀v ∈ V ⎣ yj vj ⎦ (v) = 0∗ (v) = 0. (10.8)
j=1
10.3. CAMBIAMENTI DI BASE IN V∗ . 79
Dalla definizione di somma di elementi di V∗ e dalla definizione di prodotto di uno scalare per un elemento
di V∗ , la (10.9) implica la:
X n
yj vj (vi ) = 0 i = 1, ..., n. (10.10)
j=1
D’altra parte è:
vj (vi ) = δ ji ; i, j = 1, ..., n, (10.11)
ove δ ji
è il delta di Kronöeker che assume il valore 1 se, e solo se, j = i ed, altrimenti, vale zero. Pertanto,
sostituendo nella (10.10), per ogni j = 1, ..., n, il valore di vj (vi ) fornito dalla (10.11), risulta:
yi = 0 i = 1, ..., n. (10.12)
Da quanto detto segue che la (10.7) implica la (10.12); pertanto i vettori v1 , ..., vn sono indipendenti, onde
l’asserto. ¡ ¢
La base B∗ = v1 , ..., vn dello spazio V∗ , di cui all’enunciato della proposizione precedente, è detta base
duale della base B di V. Diremo covettori gli elementi dello spazio duale.
e i (v) = y i
v i = 1, 2, ..., n. (10.21)
¡ i¢
Dalle (10.16) segue che, posto A = aj , i = 1, 2, ..., n, j = 1, 2, ..., n:
n
X
yi = aij xj i = 1, 2, ..., n. (10.22)
j=1
Inoltre risulta:
xj = vj (v) j = 1, 2, ..., n. (10.23)
Dalle (10.21) (10.22) e (10.23) segue:
n
X n
X
e i (v) = y i =
v aij xj = aij vj (v). (10.24)
j=1 j=1
La (10.24) sussiste per ogni scelta del vettore v ∈V. Risulta allora:
n
X
ei =
v aij vj , (10.25)
j=1
cioè: ¡ 1 ¢ ¡ ¢
e
v e2
v ··· e n = v1
v v2 ··· vn AT . (10.26)
Osserviamo esplicitamente che nella (10.20) e nella (10.26) intervengono due matrici quadrate che sono
l’una l’inversa dell’altra.
Dimostrazione È sufficiente provare la linearità di v∗∗ . Siano all’uopo, v∗ e v0∗ due elementi di V∗ ;
risulta allora (dalla (10.27)):
v∗∗ (v∗ + v0∗ ) = [v∗ + v0∗ ] (v) . (10.28)
Dalla definizione di somma in V∗ , segue:
Dall’arbitrarietà della scelta di v∗ e v0∗ in V∗ e dalla (10.31) segue che v∗∗ conserva la somma in v∗ .
10.4. SPAZIO BIDUALE. 81
Proviamo ora che v∗∗ conserva il prodotto di uno scalare per un vettore. All’uopo, siano k ∈ IK e v∗ ∈V∗ ,
evidentemente dalla (10.27) segue che:
v∗∗ (kv∗ ) = [kv∗ ] (v) . (10.32)
Dalla definizione di prodotto di uno scalare per un vettore in V∗ , segue:
Dalle (10.31) e (10.35), per l’arbitrarietà della scelta dello scalare k e dei vettori v∗ e v0∗ che in esse compaiono,
segue la linearità di v∗∗ , cioè l’asserto
Consideriamo ora l’applicazione β : V −→ V∗∗ che associa ad ogni elemento v ∈V l’elemento v∗∗ ∈ V∗∗ di
cui alla proposizione precedente. Al riguardo, proviamo che:
cioè che:
∗∗
(v + v0 ) = v∗∗ + v0∗∗ ∀v, v0 ∈ V. (10.38)
Per la (10.38) è sufficiente mostrare che:
∗∗
(v + v0 ) (v∗ ) = [v∗∗ + v0∗∗ ] (v∗ ) ∀v∗ ∈ V∗ . (10.39)
Dalle (10.40), (10.41) e (10.42) segue la (10.39) cioè la (10.38) e quindi la (10.37).
Proviamo ora che:
β (hv) = hβ (v) ∀v ∈ V, ∀h ∈ IK, (10.43)
cioè che:
(hv∗∗ ) (v∗ ) = [hv∗∗ (v∗ )] ∀v∗ ∈ V∗ . (10.44)
Per il primo membro della (10.44) risulta (per la (10.27) e per la linearità di v∗ ):
Proposizione 130 L’applicazione β : VnIK −→ V∗∗ di cui alla proposizione precedente è un isomorfismo tra
gli spazi n dimensionali V e V∗∗ . Tale isomorfismo è detto canonico nel senso che è indipendente dalla scelta
di particolari basi.
Dimostrazione Osserviamo che v ∈ ker β se, e solo se, v∗∗ è il vettore nullo di V∗∗ ; ciò accade se, e solo
se, v∗∗ (v∗ ) = 0V∗ (∀v∗ ∈ V∗ ); ciò accade se, e solo se, v∗ (v) = 0V (∀v∗ ∈ V∗ ). Ne segue che v ∈ ker β se, e
solo se, ogni elemento di V∗ contiene v nel suo nucleo. Ciò equivale a dire che:
Im β = V∗∗ . (10.50)
Se l’applicazione M : V −→ IK risulta lineare su tutti gli m fattori di V, diremo che M è una forma
multilineare.
xi vi , (10.54)
intenderemo significare:
n
X
xi vi . (10.55)
i=1
10.7. TENSORI ED ALGEBRA TENSORIALE. 83
Relativamente all’insieme di variabilità degli indici in questione (che vengono detti indici muti) esso sarà
facilmente evincibile dal contesto, quando non espressamente specificato.
Siano V uno spazio vettoriale (di dimensione finita) costruito sul campo IK e V∗ il suo duale. Diremo
prodotto duale l’applicazione
h·, ··i : V∗ × V → IK, (10.56)
che associa ad ogni coppia (v∗ , v) di V∗ × V lo scalare v∗ (v) che denoteremo con hv∗ , vi.
Dimostrazione La (10.57) discende immediatamente dalle definizioni di somma e prodotto per uno scalare
in V∗ , mentre la (10.58) è diretta conseguenza della definizione di spazio duale.
Per quanto riguarda la (10.59), dimostriamo l’implicazione diretta assumendo che sia hv∗ , vi = 0 ∀v ∈V: ne
consegue che v∗ è l’applicazione costante nulla di Hom (V, IK). Assumendo viceversa che v∗ sia l’applicazione
costante nulla si ha hv∗ , vi = 0 ∀v ∈V.
Consideriamo infine la (10.60). Assumendo che sia hv∗ , vi = 0 ∀v∗ ∈V∗ , ciò accade se e solo se
il che è vero se e solo se v è il vettore nullo di V. Viceversa, supposto v = 0 e considerato w ∈V (si ricordi
che l’elemento neutro è unico):
Se β è l’isomorfismo canonico di V∗ in V∗∗ , dalla proposizione 130 e dalla (10.27) segue subito che
Con un abuso notazionale, identificando u con β (u) , possiamo riscrivere la (10.63) nel modo seguente
La (10.64) ci consente di interpretare ogni elemento di V quale elemento dello spazio biduale Hom(V∗ , IK),
cioé quale applicazione lineare
u : V∗ → IK. (10.65)
La (10.64) si esprime più suggestivamente dicendo che il prodotto duale è simmetrico (proprietà che discende
dall’abuso notazionale operato).
Siano ora V1 , ..., Vq q copie di uno spazio vettoriale V costruito sul campo IK. Se V∗1 , ..., V∗p sono p copie
¡ ¢
del duale di V, diremo tensore di ordine pq in V ogni applicazione multilineare:
Diremo anche che il sopra definito tensore è una funzione (p + q)-lineare. L’intero non negativo p è l’ordine
di controvarianza,e l’intero non negativo q è l’ordine di covarianza.
¡¢
Assumeremo poi che ogni scalare sia un tensore di ordine 00 .
¡¢
Un vettore v ∈ V è un tensore di ordine 10 , ovvero è un tensore puramente controvariante di ordine
1. Infatti, dalla 10.64, v può riguardarsi come una applicazione (1 + 0)−lineare
v : V∗ → IK. (10.67)
84 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
¡¢
Diremo covettore ogni tensore di ordine 01 , cioè ogni elemento di V∗ . Un covettore è un tensore
puramente covariante di ordine 1. ¡ ¢
Denotiamo l’insieme di tutti i tensori di ordine pq sullo spazio vettoriale V come Tpq (V). L’insieme
dei tensori puramente covarianti di ordine q è denotato semplicemente Tq (V), mentre l’insieme dei tensori
puramente controvarianti di ordine p è denotato come Tp (V).
Siano L, M ∈ Tpq (V). Definiamo l’operazione somma tra elementi di Tpq (V) nel modo seguente:
¡ ¢ ¡ ¢ ¡ ¢
(L + M) u1 , ..., up , u1 , ..., uq := L u1 , ..., up , u1 , ..., uq + M u1 , ..., up , u1 , ..., uq . (10.68)
Definiamo poi la moltiplicazione di L per uno scalare λ ∈ IK nel modo seguente:
¡ ¢ ¡ ¢
(λL) u1 , ..., up , u1 , ..., uq := λL u1 , ..., up , u1 , ..., uq , (10.69)
∀u1 , ..., up ∈ V∗ , ∀u1 , ..., uq ∈ V.
Dalle precedenti definizioni discende che l’insieme Tpq (V) è uno spazio vettoriale costruito sul campo IK.
L’elemento nullo di Tpq (V) è il tensore
¡ ¢
0 : 0 u1 , ..., up , u1 , ..., uq = 0. (10.70)
Introduciamo ora© il concetto ªdi prodotto tensore. Sia {u1 , u2 , ..., up } un insieme di p vettori in uno spazio
vettoriale V, e sia u1 , u2 , ..., uq un insieme di q covettori nel duale V∗ . La funzione
è detta prodotto tensore di u1 , u2 , ..., up e u1 , u2 , ..., uq . Dalla (10.57), segue che la applicazione definita
dalla (10.72) risulta (p + q)−lineare, ovvero
u1 ⊗ · · · ⊗ up ⊗ u1 · · · ⊗ uq ∈ Tpq (V) . (10.73)
forma una base per Tpq (V), detta base prodotto. Pertanto risulta
da cui, essendo tutti nulli i coefficienti della combinazione lineare, l’insieme (10.74) è formato da vettori
linearmente indipendenti. Proviamo ora che ogni elemento di Tpq (V) può esprimersi come combinazione
lineare degli elementi dell’insieme (10.74). Consideriamo nuovamente una collezione di n(p+q) scalari
© i1 ...ip ª
B j1 ...jq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.79)
10.7. TENSORI ED ALGEBRA TENSORIALE. 85
¡ ¢
definiti come i valori di un tensore B ∈ Tpq (V) in ei1 , ..., eip , ej1 , ..., ejq :
¡ ¢
B i1 ...ip j1 ...jq := B ei1 , ..., eip , ej1 , ..., ejq . (10.80)
∀h1 , ..., hp , k1 , ...kq = 1, ..., n. Essendo B multilineare in quanto appartenente all’insieme Tpq (V), ed essendo
B, B∗ basi duali, dalla (10.81) segue che
¡ ¢
B i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq u1 , ..., up , u1 , ..., uq
¡ ¢
= B u1 , ..., up , u1 , ..., uq , ∀u1 , ..., up ∈ V∗ , u1 , ..., uq ∈ V, (10.82)
ovvero
B = B i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq . (10.83)
Ricordando la proposizione 19 possiamo concludere che l’insieme (10.74) è una base per Tpq (V). La cardinalità
di tale insieme uguaglia il numero delle (p + q) − ple ordinate di elementi di V, n(p+q) . Ne segue l’asserto.
Il primo membro della (10.80) assume n(p+q) valori ciascuno dei quali è detto componente del tensore
B.
Per il caso in cui V sia di dimensione finita n, stabiliremo una connessione tra un elemento di Hom (V, V)
ed un tensore di T11 (V), ovvero tra una trasformazione lineare da V in sé ed una funzione bilineare da V∗ × V
in IK. Se T ∈Hom (V, V), definiamo T e come
tale che
f (T) = T,
(·) e (10.86)
nel senso specificato dalla (10.84).
Al fine di fornire le relazioni che legano le componenti T i1 ...ip j1 ...jq alle Teh1 ...hp k1 ...kq , sostituiamo nel secondo
membro di (10.114) in luogo dei vettori di Be e Be∗ le loro espressioni (in funzione dei vettori di B e B∗ ,
rispettivamente) fornite dalle (10.108) ed (10.111). Otteniamo:
³ ´
h j
Teh1 ...hp k1 ...kq = T bhi11 vi1 , ..., bipp vip , cjk11 vj1 , ..., ckqq vjq . (10.115)
La (10.117) è detta legge di trasformazione delle componenti di un tensore T; tale legge mette in
relazione le componenti nella base prodotto generata da B con le componenti nella base prodotto generata da
e Detta t tale relazione, si verifica facilmente che essa è di equivalenza (vedi le (A.34), (A.35) e (A.36) in
B.
Appendice A).
Molti trattati classici sui tensori utilizzano la legge di trasformazione (10.117) per definire tale ente. La
seguente proposizione lega questa definizione con quella precedentemente data.
88 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
rispettivamente la classe delle p − ple ordinate e q − ple ordinate di elementi dell’insieme {1, ..., n} e sia
©¡ ¢ª
c := B, ψ B : ip × iq 3 ({i1 , ..., ip } , {j1 , ..., jq }) 7−→ T i1 ...ip j1 ...jq ∈ IK , (10.120)
la classe delle applicazioni ψ B che associa alla coppia ({i1 , ..., ip } , {j1 , ..., jq }) lo scalare T i1 ...ip j1 ...jq quando
sia stata scelta una base B di V. Se
n ³ ´o
e ψh
ψ B tψ Bh ∀ (B, ψ B ) , B, ∈ c2 , (10.121)
B
(cioè se ψ B e ψ Bh sono in relazione di equivalenza attraverso t) allora esiste un tensore T ∈ Tpq (V) le cui
© ª
componenti nelle basi prodotto di Tpq (V) generate dalle basi B e Be di V sono rispettivamente T i1 ...ip j1 ...jq
n o
e Tei1 ...ip j ...j , i1 , ..., ip , j1 , ..., jq = 1, ..., n.
1 q
nella base prodotto di Tpq (V) generata da B. Dalla legge di trasformazione (10.117) discende che le
n o
Tei1 ...ip j1 ...jq , i1 , ..., ip , j1 , ..., jq = 1, ..., n, (10.123)
sono le componenti dello stesso tensore nella base prodotto di Tpq (V) generata da Be purché B e Be siano legate
dalla (10.107).
Proposizione 135 Ad ogni tensore T ∈ Tpq (V) corrisponde una classe di equivalenza di scalari (componenti)
e la legge di trasformazione (10.117) è la relazione di equivalenza che definisce tale classe.
Sostituendo nella (10.125), in luogo di wi e wi le loro espressioni fornite da (10.111) e (10.108) rispettivamente,
otteniamo:
¡ ¢
T wi , u2 , ..., up , wi , u2 , ..., uq
³ ´
= T bih vh , u2 , ..., up , cji vj , u2 , ..., uq
¡ ¢
= bih cji T vh , u2 , ..., up , vj , u2 , ..., uq . (10.126)
Ma è (cfr. (10.112)):
bih cji = δ jh , (10.127)
10.9. TENSORE CONTRATTO. 89
Concludiamo questo numero osservando che, nel caso in cui risulti p = 0, q = 2 ed n = 3, diremo tensore
contratto di una forma bilineare T lo scalare che si ottiene sommando gli elementi siti sulla diagonale
principale della matrice associata a T.
Per maggiori dettagli sulle contrazioni si rimanda al Capitolo 11 della Parte II.
90 CAPITOLO 10. TENSORI ED ALGEBRA TENSORIALE
Bibliografia
91
92 BIBLIOGRAFIA
Parte II
Applicazioni
93
Capitolo 11
11.1 Contrazioni.
¡ ¢
In questa sezione si prenderà in esame l’operazione di contrazione semplice di un tensore di ordine pq ; il
¡p−1¢
risultato di tale operazione è un tensore di ordine q−1 .
Il concetto di tensore come forma multilineare definito dalla (10.66) può essere esteso introducendo il
concetto di trasformazione multilineare a valori in un generico spazio vettoriale U:
La seguente proposizione esprime la proprietà di fattorizzazione universale del prodotto tensore, ovvero il
fatto che una trasformazione multilineare X come data dalla (11.1) può essere fattorizzata (con opportuno
significato del termine) attraverso il prodotto tensore.
Proposizione 136 Sia X una trasformazione multilineare come definita dalla (11.1); allora esiste ed è unica
la trasformazione lineare:
C : Tpq (V) → U, (11.2)
tale che ¡ ¢ ¡ ¢
X u1 , ..., up , u1 , ..., uq = C u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , (11.3)
1 q ∗
∀u1 , ..., up ∈ V, ∀u , ..., u ∈ V .
Dimostrazione Poichè i tesori semplici formano un insieme di generatori per Tpq (V), se la trasformazione
lineare C soddisfacente la (11.3) esiste essa è unica. Per provarne l’esistenza si consideri una base B =
(e1 , ..., en ) di V. Definiamo ora la base prodotto per Tpq (V) come in (10.74) e sia
¡ ¢ ¡ ¢
C ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq := X ei1 , ..., eip , ej1 , ..., ejq , (11.4)
∀i1 , ..., ip , j1 , ..., jq = 1, ..., N . Quindi C può essere estesa per linearità a tutti i tensori semplici in Tpq (V).
Stante la multilinearità di X l’applicazione C definita in questo modo soddisfa la (11.3).
Indicando con “◦” l’operazione di composizione, la condizione (11.3) può essere riscritta in modo suggestivo
come
X = C ◦ ⊗, (11.5)
dove abbiamo indicato con ⊗ l’applicazione definita in (10.102). La precedente esprime in modo sintetico il
significato della fattorizzazione universale, ovvero il fatto che l’azione di un tensore X su un insieme di vettori
e covettori u1 , ..., up , u1 , ..., uq equivale alla azione di una applicazione lineare C (la cui esistenza ed unicità
sono state provate nella proposizione precedente) sul tensore semplice u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq .
Siano u ∈V, u∗ ∈V∗ . Tenendo presente la (10.64),indichiamo con hu, u∗ i il prodotto duale tra u e u∗ . La
mappa
h·, ··i : V × V∗ → IK, (11.6)
è bilineare (dalle (10.57), (10.58)). In virtù della proposizione 136, essa può essere fattorizzata attraverso il
prodotto tensore
⊗ : V × V∗ → T11 (V) , (11.7)
ovvero, esiste una applicazione lineare
C :T11 (V) → IK, (11.8)
95
96 CAPITOLO 11. ANCORA SUI TENSORI
tale che
h , i = C ◦ ⊗, hu, u∗ i = C (u ⊗ u∗ ) ∀u ∈V, ∀u∗ ∈V∗ . (11.9)
La funzione lineare C precedentemente definita è l’esempio più elementare di contrazione. Essa è una
trasformazione dello spazio T11 (V) nello spazio T1−1 0 p
1−1 (V) = T0 (V) = IK. Sia T ∈ Tq (V) un tensore semplice
nella forma
T = u1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uq , u1 , ..., up ∈ V, u1 , ..., uq ∈ V∗ . (11.10)
Per ogni coppia di interi i, j, con 1 ≤ i ≤ p, 1 ≤ j ≤ q, diremo contrazione semplice una trasformazione
lineare
p−1
Cij : Tpq (V) → Tq−1 (V) , (11.11)
tale che
®
Cij (T) = uj , ui u1 ⊗ · · · ⊗ ui−1 ⊗ ui+1 ⊗ · · · ⊗ up ⊗ u1 ⊗ · · · ⊗ uj−1 ⊗ uj+1 ⊗ · · · ⊗ uq , (11.12)
∀T ∈Tpq (V). Introducendo una notazione più compatta riscriviamo il prodotto tensore a secondo membro
come
b i · · · ⊗ up ⊗ u1 ⊗ · · · u
u1 ⊗ · · · u b j · · · ⊗ uq . (11.13)
Dimostrazione Definiamo una trasformazione multilineare nella forma (11.1) scegliendo U = Tp−1
q−1 (V):
¡ ¢ ®
Z u1 , ..., up , u1 , ..., uq = uj , ui u1 ⊗ · · · u
b i · · · ⊗ up ⊗ u1 ⊗ · · · u
b j · · · ⊗ uq , (11.14)
∀u1 , ..., up ∈ V, ∀u1 , ..., uq ∈ V∗ . Dalla proposizione 136 esiste ed unica la trasformazione lineare Cij (11.11)
tale che sia soddisfatta la condizione (11.12).
Attraverso la seguente proposizione otteniamo la rappresentazione per componenti del tensore Cij (T).
¡p¢
Proposizione 138 Sia T ∈ Tpq (V) un tensore di ordine i
q ; allora le componenti del tensore Cj (T) ∈
Tp−1
q−1 (V) relative ad una base prodotto generata dalle base B sono date da
essendo
T = T h k eh ⊗ ek ;
®
C (T) = ek , eh T h k = δ kh T h k = T k k . (11.19)
due disposizioni semplici1 di ordine N sull’insieme {1, ..., min (p, q)} cosicché è verificata la
0 ≤ p ≤ p, 0 ≤ q ≤ q. (11.25)
Dato m ≤ p + q, diremo contrazione ((p, p) , (q, q)) − esterna di ordine m una contrazione di ordine m che
applicata al tensore [T ⊗ U] ∈ Tp+q p q
q+p (V) , T ∈ Tq (V) , U ∈ Tp (V) ne saturi esclusivamente indici del tensore T
con indici del tensore U. Diremo inoltre contrazione semplice ((p, p) , (q, q)) − esterna del tensore [T ⊗ U]
(con omissione dell’ordine) una contrazione ((p, p) , (q, q)) − esterna di ordine m = 1. Denoteremo con C la
classe delle contrazioni semplici ((p, p) , (q, q)) − esterne.
Proposizione 139 Una contrazione C di ordine m è ((p, p) , (q, q)) − esterna di ordine m se e solo se, fissata
una sua decomposizione in contrazioni semplici
C = Chk11 ◦ · · · ◦ Chkm
m
, (11.26)
si ha che tutte le contrazioni semplici che la compongono appartengono alla classe C appena definita.
Dimostrazione Dimostriamo l’implicazione diretta per la caratterizzazione data dalla proposizione as-
sumendo che C sia ((p, p) , (q, q))−esterna di ordine m. Dalla definizione di contrazione ((p, p) , (q, q))−esterna,
C satura indici di T con indici di U; ne discende che ogni contrazione semplice che la compone è una contrazione
((p, p) , (q, q)) − esterna.
Assumendo viceversa che tutte le contrazioni semplici della decomposizione (11.26) siano ((p, p) , (q, q)) −
esterne di ordine 1, ancora dalla definizione di contrazione esterna si ha che ognuna di esse satura un indice di
T con un indice di U; il loro effetto composto, coincidente con l’azione di C, è quindi quello di saturare indici di
T esclusivamente con indici di U, il che caratterizza la stessa C come una contrazione ((p, p) , (q, q)) − esterna.
Proposizione 140 Sia C una contrazione ((p, p) , (q, q)) − esterna di ordine m. Se (j1 , ..., jm ) è una permu-
tazione dell’insieme {1, ..., m}, allora la contrazione
e = Chj1 ◦ · · · ◦ Chjm
C (11.27)
kj i
kjm
e = C.
è ((p, p) , (q, q)) − esterna di ordine m. Inoltre C
Proposizione 141 Siano Cp , Cq le due classi di contrazioni semplici precedentemente introdotte. Allora i
seguenti asserti risultano veri:
1. tutte le contrazioni semplici appartenenti alle classi Cp , Cq sono ((p, p) , (q, q)) − esterne;
1 Dato un insieme Ξ di cardinalità n ed un intero positivo k 6 n, si chiamano disposizioni semplici di ordine k le sequenze
di k degli n oggetti di Ξ in cui non ci siano elementi ripetuti e nei quali l’ ordine con il quale questi si sussiegono è un carattere
n!
distintivo. Il numero delle disposizioni semplici è Dn,k = (n−k)!
98 CAPITOLO 11. ANCORA SUI TENSORI
(1 ≤ ξ ≤ p) e (p + 1 ≤ ξ ≤ p + q) ,
(11.32)
(1 ≤ η ≤ q) e (q + 1 ≤ η ≤ q + p) ,
e constatare che queste relazioni sono contraddittorie.
Il terzo asserto discende immediatamente dalle (11.28), (11.29). Detti infatti
H := {h | 1 ≤ h ≤ p} , K := {k | q + 1 ≤ k ≤ q + p} ,
P := H × K = {(h, k) | h ∈ H, k ∈ K} ,
(11.33)
R := {r | p + 1 ≤ r ≤ p + q} , S := {s | 1 ≤ s ≤ q} ,
Q := R × S = {(r, s) | r ∈ R, s ∈ S} ,
risulta evidente che Cp contiene tante contrazioni quanti sono gli elementi di P , mentre le contrazioni in Cq
sono tante quante gli elementi di Q, ovvero si ha
Card Cp = Card P = Card H Card K = pp,
(11.34)
Card Cq = Card Q = Card R Card S = qq.
Proposizione 142 Tutte le contrazioni semplici ((p, p) , (q, q)) − esterne appartengono alla unione Cp ∪ Cq ,
ovvero C = Cp ∪ Cq .
Dimostrazione Sia Chk una contrazione semplice ((p, p) , (q, q)) − esterna. Si ha che
(1 ≤ h ≤ p) , (q + 1 ≤ k ≤ q + p) , (11.35)
oppure
(p + 1 ≤ h ≤ p + q) , (1 ≤ k ≤ q) ; (11.36)
la contrazione Chk p q
appartiene quindi alla classe C oppure alla classe C (cfr le (11.28), (11.29)), ovvero
Chk ∈ Cp ∪ Cq da cui C = Cp ∪ Cq .
Ritorniamo ora alle contrazioni esterne fissando l’attenzione su quelle di ordine p + q. Denoteremo con C
la classe delle contrazioni ((p, p) , (q, q)) − esterne di ordine p + q :
p+q
C : Tq+p (V) → Tp−p
q−q (V) . (11.37)
Passiamo ora alla caratterizzazione della classe C appena introdotta.
Proposizione 143 Sia C ∈ C e sia n o
hp+q
c = Chk11 , ..., Ckp+q , (11.38)
l’insieme delle contrazioni semplici ((p, p) , (q, q)) − esterne che la compongono. Tale insieme può comunque
essere ripartito in due sottoinsiemi
cp ⊆ Cp ,
(11.39)
cq ⊆ Cq ,
di cardinalità rispettiva p e q.
11.1. CONTRAZIONI. 99
Dimostrazione Dalla definizione di contrazione semplice esterna e dalla proposizione 142 possiamo
innanzitutto constatare che
c ⊆ Cp ∪ Cq . (11.40)
T ⊗ U = T i1 ...ip j1 ...jq U ip+1 ...ip+q jq+1 ...jq+p ei1 ⊗ · · · ⊗ eip+q ⊗ ej1 ⊗ · · · ⊗ ejq+p , (11.41)
si evince che p contrazioni semplici ((p, p) , (q, q)) − esterne di c devono essere tali che
(1 ≤ h ≤ p) e (q + 1 ≤ k ≤ q + p) , (11.42)
(p + 1 ≤ h ≤ p + q) e (1 ≤ k ≤ q) , (11.43)
C = Cp ◦ Cq , (11.44)
con n o
rp
cp = Crq+1
1
, ..., Cq+p ,
n o (11.45)
cq = Cp+1
s1 , ..., Csq
p+q
,
e
r
Cp = Crq+1
1 p
◦ · · · ◦ Cq+p ,
(11.46)
Cq = Cp+1 p+q
s1 ◦ · · · ◦ Csq ,
dove (r1 , ..., rp ) è una disposizione semplice di ordine p sull’insieme {1, ..., p} mentre (s1 , ..., sq ) è una dispo-
sizione semplice di ordine q sull’insieme {1, ..., q}2 . Le componenti del tensore C (T ⊗ U) ∈ Tp−p q−q (V) saranno
indicate come ³ ´³ ´
js1 jsq j j
Li1 ...ip j1 ...jq M ip+1 ...ip+q jq+1 ...jq+p δ ip+1 · · · δ ip+q δ irq+1 · · · δ irq+p
1 p (11.47)
= Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp ,
dove la scrittura i1 ...ir1 ...irp ...ip indica sinteticamente i p indici ir1 ...irp di L sommati con gli omonimi di M.
È bene tenere presente che i1 ...ir1 ...irp ...ip non differisce da i1 ...ip , così come j1 ...js1 ...jsq ...jq non differisce da
j1 ...jq .
Delineata la struttura della classe C, introduciamo ora una classe di applicazioni lineari ad essa legate.
Scelti quattro interi p, q, p, q sottoposti alle limitazioni (11.25), sia J ((p, p) , (q, q)) la classe di applicazioni
h i
JC : Tpq (V) → Hom Tqp (V) , Tq−q
p−p
(V) , (11.48)
definite dalla
(JC L) M := C (L ⊗ M) , ∀L ∈ Tpq (V) , ∀M ∈ Tqp (V) , (11.49)
al variare di C in C.
Enunciamo la
Proposizione 144 Tutte le applicazioni JC ∈ J ((p, p) , (q, q)) di cui alla definizione precedente sono iso-
morfismi.
2 E’ p! q!
evidente che il numero delle Cp è (p−p)!
mentre il numero delle Cq è (q−q)!
.
100 CAPITOLO 11. ANCORA SUI TENSORI
Dimostrazione Verifichiamo innanzitutto che JC è lineare. Dalla (11.49) e ricordando che la contrazione
ed il prodotto tensore sono operatori lineari si ha che, ∀L, M ∈ Tpq (V) , ∀N ∈ Tqp (V) :
JC L = 0 ⇒ L = 0. (11.51)
L ⊗ M = Li1 ...ip j1 ...jq M ip+1 ...ip+q jq+1 ...jq+p ei1 ⊗ · · · ⊗ eip+q ⊗ ej1 ⊗ · · · ⊗ ejq+p . (11.53)
Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp . (11.54)
Dalla (11.52) si ha
Li1 ...ir1 ...irp ...ip j1 ...js1 ...jsq ...jq M js1 ...jsq ir1 ...irp = 0 ∀ M js1 ...jsq ir1 ...irp ,
⇒ Li1 ...ip j1 ...jq = 0, i1 , ..., ip , j1 , ..., jq = 1, ..., n, (11.55)
⇒ L = 0.
l’applicazione JC è dunque iniettiva. Dalla proposizione 39 e dalla proposizione 132 discende che
La dimostrazione è completa: JC si caratterizza infatti come un isomorfismo essendo una applicazione lineare
iniettiva e suriettiva.
h i
Proposizione 145 Se C 6= ∅ gli spazi Tpq (V) e Hom Tqp (V) , Tq−qp−p
(V) sono isomorfi.
Proposizione 146 Lo spazio T11 (V) delle applicazioni bilineari da V∗ × V in IK è isomorfo allo spazio
Hom (V, V) degli endomorfismi di V.
h = 2, k=1 (11.59)
© 2ª
Dalla proposizione 143 discende infine c = C = C1 = C. Essendo C 6= ∅ dalla proposizione 145 si
ha che T11 (V) e Hom (V, V) sono isomorfi. Si noti che la contrazione C soddisfacente la (11.49) è una
11.2. PRODOTTO DUALE TRA TENSORI. 101
soltanto; il corrispondente isomorfismo J può dunque riguardarsi come canonico, proprietà del resto attribuita
f nella proposizione 133.
all’applicazione (·)
Siano
¡ ¢
L = Lii j1 ei1 ⊗ ej1 ∈ T11 (V) ,
M = M i2 ei2 ∈ T10 (V) , (11.60)
¡ ¢
L ⊗ M = Lii j1 M i2 ei1 ⊗ ei2 ⊗ ej1 ∈ T21 (V) .
generata dal tensore L ∈ Tpq (V). La classe di tali applicazioni lineari ottenute al variare di C in C può essere
quindi identificata con il tensore L.
e dunque C 6= ∅; in questo caso (r1 , ..., rp ) è una permutazione di {1, ..., p} ed (s1 , ..., sq ) è una permutazione
di {1, ..., q}, il che configura le contrazioni ((p, p) , (q, q)) − esterne C ∈ C come contrazioni complete del
tensore [L ⊗ M] ∈ Tp+q q+p (V), ovvero
C :Tp+q
q+p (V) → IK. (11.65)
p
£ q ¤
Ricordando la proposizione 147 identifichiamo Tq (V) con la classe delle applicazioni lineari Hom Tp (V) , IK ,
da cui, tenendo presente la (11.63), ¡ q ¢∗
Tp (V) = Tpq (V) . (11.66)
£ ¤
Lo spazio duale Tpq (V) è quindi quello delle applicazioni lineari JC L ∈ Hom Tqp (V) , IK .
h·, ··iC : (L∗ , L) ∈ Tqp (V) × Tpq (V) 7→ hL∗ , LiC ∈ IK, (11.67)
definita da
hL∗ , LiC := C (L ⊗ L∗ ) , (11.68)
102 CAPITOLO 11. ANCORA SUI TENSORI
tale che
(JC L) L∗ = C (L ⊗ L∗ ) . (11.70)
Analogamente a JC , l’operazione h·, ··iC è definita al variare di C in C. l’applicazione (11.68) rispetta
ovviamente le (10.57), (10.58), (10.59), (10.60).
Consideriamo u ∈ T10 (V) , u∗ ∈ T01 (V). Gli insiemi cp , cq sono dati da:
© ª
cp = c1 = {Cr11 } = C11 ,
(11.71)
cq = c0 = ∅,
© ª
da cui C = C11 Il prodotto duale di u e u∗ è dato da
hu∗ , ui = C11 (u ⊗ u∗ )
= ui u∗j δ ji = ui u∗i
= Tr (u ⊗ u∗ ) . (11.72)
TENSORI CARTESIANI
Con le due proposizioni seguenti andiamo a stabilire che B̃ è una base di V e che, assegnata la base B, la
sua reciproca in V esiste ed è unica.
Proposizione 149 Sia B = (b1 , ..., bn ) una base di uno spazio vettoriale V dotato di un prodotto scalare. La
sua reciproca B̃ esiste ed è unica.
Dimostrazione Esistenza. Dimostreremo l’esistenza del vettore b e 1 ; l’esistenza degli altri n − 1 vettori di
B̃ si dimostra in maniera del tutto analoga. Sia U il sottospazio di V (vedi (1.20), (1.21), (1.22)) generato dai
vettori b2 , ..., bn ed U⊥ il suo complemento ortogonale in V (cfr. proposizione 89). Essendo dim U =n − 1,
dalla proposizione 105 discende che
dim U⊥ = dim V− dim U =1. (12.3)
Esiste quindi un vettore non nullo u ∈ U⊥ . Poiché b1 ∈ / U, esso non è ortogonale ad u rispetto al prodotto
scalare definito in V:
b1 · u 6=0. (12.4)
Definendo
u
e 1 :=
b , (12.5)
b1 · u
tale vettore rispetta evidentemente la (12.2) per i = 1.
Unicità. Assumiamo che esistano due basi reciproche B̃, C˜ rispetto alla base B. Dalla (12.2) si ha
e i · bj = δ i ,
b i, j = 1, ..., n,
j
(12.6)
ei
c · bj = δ ij , i, j = 1, ..., n,
ovvero ³ ´
bei − e
ci · bj = 0, i, j = 1, ..., n. (12.7)
e i −e
Il vettore b ci è quindi ortogonale a tutti i vettori di V: dalla proposizione 111 discende che esso è il vettore
nullo, ovvero che
ei = e
b ci , i = 1, ..., n. (12.8)
103
104 CAPITOLO 12. TENSORI CARTESIANI
Proposizione 150 Sia B una base di uno spazio vettoriale V dotato di un prodotto scalare. La sua reciproca
B̃ è una base di V.
αj be j · bi = αj δ j = αi = 0, i = 1, 2, ..., n, (12.10)
i
n o
da cui risulta che l’insieme b e n è formato da vettori linearmente indipendenti. Poiché la cardinalità
e 1 , ..., b
di tale insieme è n, dalla proposizione 19 discende che B̃ è una base di V.
Quale sia la relazione tra la base reciproca e la base duale è chiarita dalla seguente proposizione.
Proposizione 151 Sia V uno spazio vettoriale dotato di un prodotto scalare. Esiste un unico isomorfismo
g : V → V∗ ,
hg (v) , wi = v · w, v, w ∈ V. (12.11)
¡ ¢ ³ ´ ³ ´
Se B = (b1 , ..., bn ) è una base di V, D = b1 , ..., bn è la base duale e B̃ = b̃1 , ..., b̃n , D̃ = b en
e 1 , ..., b
sono le relative basi reciproche si ha
³ ´
e j = bj , j = 1, ..., n,
g b (12.12)
ej ,
g (bj ) = b j = 1, ..., n. (12.13)
Dimostrazione Occorre dimostrare che g è un isomorfismo, ovvero che g stabilisce una corrispondenza
biunivoca tra V ed il suo duale V∗ . Che g sia una trasformazione lineare discende immediatamente dagli
assiomi (7.3), (7.4), i quali configurano il secondo membro della (12.11) come una applicazione lineare in v.
Inoltre g è iniettiva; ponendo infatti nella (12.11) gu =gv si ottiene
Essendo g un isomorfismo e B̃ una base per V, dalla proposizione 38 la sua immagine sotto g è una base per V∗
in quanto esso conserva l’indipendenza lineare dei vettori; alla luce di questa considerazione, dalla equazione
precedente discende immediatamente la (12.12). Dalla simmetria del prodotto scalare si ha inoltre
D E D E
b e i = g (bj ) , b
e i · bj = bj · b ei = b ei = δi ,
ej , b (12.20)
j
da cui, con considerazioni analoghe a quelle che hanno condotto alla (12.12), discende la (12.13).
12.1. TENSORI SUGLI SPAZI VETTORIALI DOTATI DI PRODOTTO SCALARE. 105
gij bj = hg (bi ) , bj i bj
£ ¤
= bj ⊗ bj (g (bi ))
£ ¤³ ´
= bj ⊗ bj b ei
³ ´
=M b ei . (12.39)
da cui la (12.37).
Ricaviamo ora le componenti della trasformazione covariante Gpq . Dalla (12.13) la (12.35) può riscriversi
come
Gpq (T) = T i1 ...ip j1 ...jq b e i ⊗ bj1 ⊗ · · · ⊗ bjq ,
ei ⊗ · · · ⊗ b (12.41)
1 p
Utilizzando invece le basi prodotto usuali per Tpq (V) e Tp+q (V) :
© ª
bi1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n,
© i ª (12.45)
b 1 ⊗ · · · ⊗ bip ⊗ bj1 ⊗ · · · ⊗ bjq , i1 , ..., ip , j1 , ..., jq = 1, 2, ..., n,
le componenti sono legate come visto nella (12.43).
Dimostriamo ora che la trasformazione covariante Gpq è un isomorfismo.
Proposizione 153 La trasformazione covariante Gpq è un isomorfismo.
Dimostrazione La linearità di Gpq discende immediatamente dalla proposizione 151.
Proviamo ora l’iniettività. Ponendo Gpq (T) = 0 nella (12.35) si ottiene
¡ ¢
0 = T i1 ...ip j1 ...jq g (ei1 ) ⊗ · · · ⊗ g eip ⊗ ej1 ⊗ · · · ⊗ ejq , (12.46)
ovvero, ricordando la (10.72):
¡ ¢
0 eh1 , ..., ehp , ek1 , ..., ekq (12.47)
i1 ...ip
¡ ¢ ® j1 ® ®
=T j1 ...jq hg (ei1 ) , eh1 i · · · g eip , ehp e , ek1 · · · ejq , ekq .
12.1. TENSORI SUGLI SPAZI VETTORIALI DOTATI DI PRODOTTO SCALARE. 107
con
k1 ...kp
U j1 ...jq = g k1 i1 · · · g kp ip Ui1 ...ip j1 ...jq . (12.56)
¡ ¢−1
Dalla precedente uguaglianza si possono vedere le componenti dell’isomorfismo Gpq : esso ha l’effetto di
alzare i primi p indici delle componenti Ui1 ...ip j1 ...jq del tensore U ∈ Tp+q (V) sul quale opera.
Componendo Gpq con la sua inversa è possibile definire isomorfismi tra spazi tensoriali dello stesso ordine
totale.
Dati quattro interi non negativi h, k, p, q tali che
h + k = p + q, (12.57)
¡ ¢−1
l’applicazione Ghk ◦ Gpq
¡ h ¢−1
Gk ◦ Gpq : Tpq (V) → Thk (V) , (12.58)
rende isomorfi gli spazi Tpq (V) e Thk (V). Si ha infatti
e ¡ h ¢−1
Gk ◦ Gpq : Tp+q (V) → Thp+q−h (V) = Thk (V) . (12.60)
£ ¤−1 ¡ p ¢
Sia T ∈Tpq (V). Diremo che il tensore Gp+q0 Gq (T) ∈ Tp+q (V) è la rappresentazione puramente
controvariante di T.
Consideriamo ad esempio
con
1.
T i1 ...ik j1 ...jk = T i1 ...ip m1 ...mh−p j1 ...jk g ip+1 m1 · · · g ih mh−p , (12.65)
se h > p;
2.
T i1 ...ik j1 ...jk = T i1 ...ih m1 ...mp−h jp−h+1 ...jk gm1 j1 · · · gmp−h jp−h , (12.66)
se h < p.
T = T i hk ei ⊗ eh ⊗ ek . (12.67)
T = T ij hk ei ⊗ ej ⊗ eh ⊗ ek . (12.71)
La sua rappresentazione puramente covariante si ottiene applicando G22 : T22 (V) → T4 (V):
Una volta che lo spazio V sia stato dotato di un prodotto scalare, la proposizione 151 legittima l’intro-
duzione dell’isomorfismo g che riguardiamo come canonico. La sua notazione può dunque essere soppressa
senza nessuna ambiguità e V può essere identificato con il suo duale; un vettore u si identifica con una funzione
lineare da V in IR:
hu, vi = u · v, (12.73)
12.2. CONTRAZIONI. 109
ed il prodotto duale viene sostituito con il prodotto scalare in accordo con la (12.73).
In conseguenza di ciò il simbolo Gpq può essere soppresso dalle (12.35), (12.52); gli spazi tensoriali dello
stesso ordine totale h vengono quindi identificati con lo stesso oggetto
Th (V) = Th−1
1 (V) = · · · = T1h−1 (V) = Th (V) . (12.74)
In virtù di questa identificazione definire un tensore in uno spazio vettoriale dotato di prodotto scalare equivale
a specificarne l’ordine totale senza nessuna distinzione tra ordini di controvarianza e di covarianza; gli ordini
di covarianza e controvarianza vanno specificati separatamente soltanto quando si sceglie una particolare
rappresentazione del tensore. Considerato ad esempio un tensore A di ordine totale h, è possibile esprimere
A nelle forme equivalenti
A = T i1 ...ih bi1 ⊗ · · · ⊗ bih ,
A = T i1 ...ih−1 jh bi1 ⊗ · · · ⊗ bih−1 ⊗ bjh ,
.. (12.75)
.
A = Tj1 ....jh bj1 ⊗ · · · ⊗ bjh ,
dove la prima è la rappresentazione puramente controvariante mentre l’ultima è la rappresentazione puramente
covariante e quelle intermedie sono tutte le possibili rappresentazioni miste.Tutte le rappresentazioni (12.75)
sono legate come mostrato dalle (12.43), (12.56), (12.65) e (12.66).
12.2 Contrazioni.
È possibile ridefinire l’operatore contrazione esaminato al numero (11.1) nel caso in cui lo spazio vettoriale V
sia dotato di un prodotto scalare.
Sia T un tensore semplice di ordine totale s > 2 nella forma
T = u1 ⊗ · · · ⊗ us . (12.76)
definita da
Cij (T) := (ui · uj ) [u1 ⊗ · · · ⊗ ui−1 ⊗ ui+1 ⊗ · · · ⊗ uj−1 ⊗ uj+1 ⊗ · · · ⊗ us ] . (12.78)
L’operatore Cij può essere esteso per linearità a tutti i tensori di ordine totale s. Così ad esempio se
T ∈Ts (V) è rappresentato come
T = Ti1 ...is ei1 ⊗ · · · ⊗ eis , (12.79)
dalla (12.78) e ricordando che g ij = ei · ej il tensore Cjk (T) è dato da
¡ ¢
Cjk (T) = Ti1 ...is Cjk ei1 ⊗ · · · ⊗ eis
¡ ¢¡ ¢
= Ti1 ...is eij · eik ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis
ij ik
=g Ti1 ...is ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis
= T i1 ...ij−1 ik ij+1 ...ik ...is ei1 ⊗ · · · ⊗ eij−1 ⊗ eij+1 ⊗ · · · ⊗ eik−1 ⊗ eik+1 ⊗ · · · ⊗ eis . (12.80)
Si noti che nel dare la definizione (12.78) si è tenuto conto della definizione di contrazione semplice data
al numero 11.1 e delle considerazioni svolte alla fine della precedente sezione. Valgono ovviamente tutte le
proprietà stabilite precedentemente riguardo alle contrazioni semplici.
Consideriamo ora due tensori A, B di ordine totale s e sia
il loro prodotto tensore. Tenendo presente la definizione di contrazione esterna (si veda il numero 11.1) le
contrazioni complete di [A ⊗ B] sono le contrazioni (s, s) − esterne
aventi la forma
C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis (2s) , (12.83)
dove (i1 , ..., is ) è una permutazione di {1, ..., s}. La cardinalità della classe C risulta banalmente essere s!.
110 CAPITOLO 12. TENSORI CARTESIANI
Dimostrazione L’applicazione A · B definita dalla (12.84) è un prodotto scalare se verifica gli assiomi
¡ ¢−1
(7.2), (7.3), (7.4). Il fatto che valgano le (7.3), (7.4) discende banalmente dalla linearità delle Gpq , Gp+q
0 e
dalle (10.57), (10.58):
D £ ¤−1 ¡ p ¢E
(A + B) · C = Gpq (A + B) , Gp+q 0 Gq (C) (12.85)
D £ ¤ −1 ¡ ¢E D £ ¤−1 ¡ ¢E
= Gpq A, Gp+q
0 Gpq (C) + Gpq B, Gp+q
0 Gpq (C)
= (A · C) + (B · C) ;
D £ ¤−1 ¡ p ¢E
(λA · B) = Gpq (λA) , G0p+q Gq (C) (12.86)
D £ ¤−1 ¡ p ¢E
= λGpq (A) , G0p+q Gq (C)
D £ ¤−1 ¡ p ¢E
= λ Gpq (A) , Gp+q
0 Gq (C) = λ (A · B) .
ovvero A·B = B·A; l’assioma (7.2) è rispettato. l’applicazione A·B definita dalla (12.84) è dunque un prodotto
scalare.
Tenendo presente che i tensori dello stesso ordine totale possono identificarsi in virtù del prodotto scalare
introdotto su V, dalla definizione (11.68) assegnare un prodotto scalare su Tpq (V) si riduce alla scelta di una
contrazione completa
C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis 2s , (12.89)
con s = p + q. Quindi se A,B sono due tensori di ordine totale s, ricordando la (12.80) si definisce un prodotto
scalare come
(A · B)C := C (A ⊗ B) . (12.90)
L’ultima definizione è equivalente a quella data nella proposizione precedente qualora si operi l’identificazione
di V con il suo duale sopprimendo la notazione di Gpq .
Con la scelta
C = C1 (s+1) ◦ C2 (s+2) ◦ · · · ◦ Cs 2s , (12.91)
il prodotto scalare di due tensori A e B dello stesso ordine totale s è esprimibile nelle forme equivalenti
A·B=
= Aj1 ...js Bj1 ...js
= Ai1 ...is−1 js g js is Bi1 ...is (12.92)
..
.
= Aj1 ...js B j1 ...js .
Proposizione 155 Si consideri lo spazio tensoriale T2s (V). Se il prodotto scalare definito in V è non
degenere, allora lo è anche il prodotto scalare (12.90) definito in T2s (V).
12.3. PRODOTTO SCALARE TRA TENSORI. 111
Eseguiamo il prodotto scalare A · B con la contrazione completa C = Ci1 (s+1) ◦ Ci2 (s+2) ◦ · · · ◦ Cis 2s ; dalle
(12.78), (12.80) si ha
(A · B)C = C (A ⊗ B)
= Ai1 ...is B is+1 ...i2s gis+1 ij1 · · · gi2s ijs
= Ai1 ...is Bij1 ...ijs ∀B ⇒ A = 0. (12.94)
112 CAPITOLO 12. TENSORI CARTESIANI
Capitolo 13
TENSORI DOPPI
13.1 Premessa.
Andremo ora a restringere l’attenzione alla classe dei tensori di ordine totale 2 definiti su uno spazio vettoriale
V di dimensione finita costruito sul campo IR e dotato di un prodotto scalare simmetrico, definito positivo a
valori in IR. Salvo diversa specifica sarà dim V =3.
Dalle proposizioni (97), (98) l’introdotto prodotto scalare induce una norma euclidea in V la cui immagine
corrisponde al modulo del vettore v ∈ V (cfr. proposizione 97).
Dalla proposizione 102 esiste in V almeno una base ortonormale che denoteremo con B = (e1 , e2 , e3 ), ovvero
esiste almeno una base tale che
ei · ej = δ ij , i, j = 1, 2, 3. (13.1)
In base a quanto visto nel Capitolo 12 verrà operata l’identificazione
tra i tre spazi tensoriali dello stesso ordine totale 2. Dalla (10.93), un tensore T appartenente ad uno qual-
sivoglia dei tre spazi viene considerato in modo equivalente un endomorfismo di V, ovvero un elemento dello
spazio Hom (V, V). Tale ente sarà rappresentato come
T = T ij ei ⊗ ej ,
T = Tij ei ⊗ ej , (13.3)
i j
T= T j ei ⊗ e ,
¡ ¢
i, j = 1, 2, 3 dove R = e1 , e2 , e3 è la base di V reciproca di B (cfr. proposizione 151).
Ancora dalla proposizione 102 e dalla (13.1) il tensore metrico visto come endomorfismo di V assume la
forma
1I = δ ij ei ⊗ ej = ej ⊗ ej ,
1I = δ ij ei ⊗ ej = ej ⊗ ej , (13.4)
1I = δ ij ei ⊗ ej = ej ⊗ ej ,
nelle basi prodotto generate dalla introdotta base ortonormale B.
Dalle considerazioni precedenti, il prodotto tensore (o prodotto diadico) tra due vettori u, v ∈V è
l’endomorfismo di V
u ⊗ v :V → V, (13.5)
tale che
[u ⊗ v] (b) = (v · b) u, ∀b ∈V. (13.6)
Dalla proposizione 18, essendo B una base di V, i vettori u e v ammettono in tale base l’unica rappresentazione
u =uj ej , v =v j ej . La componente i, j della diade (u ⊗ v) nella base prodotto generata da B risulta dunque
essere
¡ ¢ ¡ ¢ £ ¤¡ ¢
[u ⊗ v] ei , ej = ei · [u ⊗ v] ej = ei · uh eh ⊗ v k ek ej
¡ ¢ ¡ ¢¡ ¢
= uh v k ei · [eh ⊗ ek ] ej = uh v k eh · ei ek · ej
= uh v k δ ih δ jk = ui v j , (13.7)
113
114 CAPITOLO 13. TENSORI DOPPI
∧ : V × V → V, (13.9)
u ∧ v = −v ∧ u, (13.10)
(λu + µv) ∧ w = λ (u ∧ w) + µ (v ∧ w) , (13.11)
u· (u ∧ v) = 0, (13.12)
2
(u ∧ w) · (u ∧ w) = (u · u) (v · v) − (u · v) , (13.13)
Dagli assiomi (7.2), (7.3), (7.4), dalle (7.46), (7.48), (7.49) e dagli assiomi (13.10), (13.11), (13.12), (13.13)
discendono le seguenti proprietà del prodotto triplo:
u · (v ∧ w) = v · (w ∧ u) = w · (u ∧ v)
= −u · (w ∧ v) = −v · (u ∧ w) = −w · (v ∧ u) , (13.15)
definita dalle
Proposizione 156 Esistono in V due prodotti vettore soddisfacenti gli assiomi (13.10), (13.11), (13.12),
(13.13).
ei ∧ ej = ± εij k ek . (13.20)
Dalla identità
u = (u · eh ) eh , (13.21)
con u = e2 ∧ e3 e facendo uso delle (13.15), (13.17) si ha
da cui
[(e2 ∧ e3 ) · e1 ]2 = 1 ⇒ [(e2 ∧ e3 ) · e1 ] = ±1, (13.26)
ovvero la (13.20).
Esprimendo il prodotto triplo dei vettori della base ortonormale B in termini del simbolo di permutazione
si ottiene
ek · (ei ∧ ej ) = ± εij h eh · ek = εij h δ hk = εijk , (13.27)
mentre il prodotto vettore si può scrivere come
¡ ¢ ¡ ¢
u ∧ w = ui ei ∧ wj ej = ui wj (ei ∧ ej ) = ± εij h ui wj eh . (13.28)
Dalla (13.17) il prodotto triplo tra i vettori di una qualsivoglia base è necessariamente diverso da zero.
Due basi di V sono simili se i loro prodotti tripli hanno lo stesso segno. Si verifica facilmente che la
relazione di similarità è di equivalenza; essa stabilisce una partizione dell’insieme B delle basi di V in due
classi D ed S caratterizzate dal segno del prodotto triplo dei loro elementi. La scelta di una delle due coppie
kxk = kuk kvk sin (−θ) = − kuk kvk sin θ, |θ| < π.
La direzione di x è ancora perpendicolare alla giacitura individuata da u e v, ma il suo verso è questa volta
indicato dal pollice di una mano sinistra quando le restanti dita portino idealmente il vettore u a sovrapporsi
al vettore v facendogli descrivere una rotazione di ampiezza −θ (θ è considerato positivo se la rotazione ad
esso corrispondente è antioraria). Quella appena descritta è la regola di esecuzione del prodotto vettore in V− ,
nota come regola della mano sinistra. Si noti la consistenza con quanto detto nella precedente osservazione
a proposito del segno del prodotto vettore in uno spazio vettoriale orientato.
È semplice verificare che il valore assunto dal prodotto triplo di u, v, w è il volume del parallelepipedo
u v w
avente i lati di lunghezza |u| , |v| , |w| ed orientati rispettivamente come le direzioni dei versori , , .
|u| |v| |w|
116 CAPITOLO 13. TENSORI DOPPI
13.3 Trasposto.
Sia T ∈ Hom (V, V). Diremo tensore trasposto di T l’applicazione
TT : V → V, (13.32)
tale che
u · T (v) = v · TT (u) , ∀u, v ∈V. (13.33)
Dimostriamo ora alcune importanti proprietà dell’applicazione trasposta.
Proposizione 157 Siano A, B ∈ Hom (V, V). Allora (λA + µB)T = λAT + µBT , ∀λ, µ ∈ IR.
Dalla proposizione 85 e dalla (13.33) il primo membro può essere riscritto come
ovvero
£ ¤ T
v · λAT + µBT (u)=v · [λA + µB] (u) , ∀u, v ∈V ⇒
T
⇒ λAT + µBT = (λA + µB) . (13.36)
T
Proposizione 158 Siano A, B ∈ Hom (V, V). Allora (AB) = BT AT .
Dalla linearità di A e B , dall’assioma (7.2) ed applicando due volte la (13.33) il primo membro può riscriversi
come £ ¤
u · [AB] (v) = u · A (B (v)) = AT (u) ·B (v) = v· BT AT (u) , (13.38)
da cui
(AB)T = BT AT . (13.39)
T
Proposizione 159 Sia (u ⊗ v) ∈ Hom (V, V). Allora (u ⊗ v) = v ⊗ u.
Dalla (13.6) e dalla linearità del prodotto scalare si stabilisce la catena di uguaglianze
a · [u ⊗ v] (b)=a · (v · b) u = (v · b) (a · u) = b· (u · a) v
= b· [v ⊗ u] (a) , (13.41)
da cui
T
v ⊗ u = (u ⊗ v) . (13.42)
T (u ⊗ v) = T (u) ⊗ v, (13.43)
T
(u ⊗ v) T = u ⊗ T (v) . (13.44)
13.4. INVARIANTI. 117
[T (u ⊗ v)] (a) =T ([u ⊗ v] (a)) = T ((v · a) u) = (v · a) T (u) = [T (u) ⊗v] (a) . (13.45)
Analogamente
¡ ¢ £ ¤
[(u ⊗ v) T] (a) = [u ⊗ v] (T (a)) = (v·T (a)) u = TT (v) ·a u = u⊗TT (v) (a) . (13.46)
13.4 Invarianti.
Proposizione 162 Siano (a, b, c) e (f , g, h) due basi di V e sia T ∈ Hom (V, V). Valgono allora le seguenti
T (a) · (b ∧ c) + a · (T (b) ∧ c) + a · (b ∧ T (c))
a · (b ∧ c)
T (f ) · (g ∧ h) + f · (T (g) ∧ h) + f · (g ∧ T (h))
= , (13.49)
f · (g ∧ h)
Il determinante risulta essere una applicazione non lineare in quanto det (αT) 6= α det T: esso risulta
infatti essere una mappa omogenea di ordine tre (si veda la (13.65)).
Proposizione 166 Sia T ∈ Hom (V, V) un tensore invertibile dipendente da un parametro t. Assumendo
dT
l’esistenza della derivata , si ha
dt
∙ µ ¶¸
d dT −1
(det T) = (det T) Tr T . (13.69)
dt dt
T = T i j bi ⊗ bj , (13.71)
in una base prodotto generata dalla base B = (b1 , b2 , b3 ) di V. Le rappresentazioni per componenti degli
invarianti principali di T sono
Tr T = T h h , (13.72)
1 h¡ h ¢2 i 1h
2
i
IIT = T h − Thk Tk h = (Tr T) − Tr T2 , (13.73)
2 2
i j k
det T = εijk T 1 T 2 T 3 . (13.74)
Dimostrazione Consideriamo la (13.55) con la base (b1 , b2 , b3 ) in luogo della base (a, b, c):
Ricordando la (13.17) e dalla multilinearità del prodotto triplo la precedente uguaglianza può riscriversi come
da cui
Tr T = T h h . (13.77)
120 CAPITOLO 13. TENSORI DOPPI
Cancellando il fattore comune non nullo [b1 · (b2 ∧ b3 )] e sviluppando i termini in accordo con la definizione
di simbolo di permutazione si ottiene
¡ ¢ ¡ ¢ ¡ ¢
IIT = ε123 T 2 2 T 3 3 + ε132 T 3 2 T 2 3 + ε123 T 1 1 T 3 3 + ε321 T 3 1 T 1 3 + ε123 T 1 1 T 2 2 + ε213 T 2 1 T 1 2
= T22 T33 + T11 T33 + T11 T22 − T32 T23 − T31 T13 − T21 T12 ,
L’insieme di scalari {εhij }, h, i, j = 1, 2, 3, i cui elementi sono i valori assunti dalla classe di funzioni (cfr.
proposizione 134) n³ ´o
cLC := B, ψ LC
B : i3 3 {h, i, j} −
7 → εhi
j
∈ {−1, 0, 1} , (13.82)
che associano alle permutazioni di {1, 2, 3} i valori dell’indicatore di Levi-Civita quando sia stata fissata una
base B di V, non verificano le ipotesi della proposizione 134. Quindi il simbolo di permutazione non identifica
le componenti di un tensore rispetto alla base prodotto di T3 (V) generata da una qualsivoglia base di V.
Siano infatti B e B̃ due basi di V, A l’endomorfismo di V che trasforma i vettori della base B nei vettori della
base B̃:
e i , i = 1, 2, 3,
A (bi ) = b (13.83)
ed A la matrice associata a tale cambiamento di coordinate (cfr. sezione 10.3). La (13.57) porge
Dette ui , v j , wk le coordinate dei vettori della base (u, v, w) nella base B e tenendo presente la (13.28), la
precedente può riscriversi come
ui v j wk [bi · (bj ∧ bk )] det A = ui v j wk [A (bi ) · (A (bj ) ∧ A (bk ))] ;
εjki det A = [A (bi ) · (A (bj ) ∧ A (bk ))] ; (13.85)
h ³ ´i
εjki det A = b ei · b ej ∧ bek .
Riscrivendo ora i vettori della base B̃ nei termini dei vettori della base B si ottiene
£ ¡ ¢¤
εjki det A = Ah i bh · Al j bl ∧ Am k bk
= Ah i Al j Am k [bh · (bl ∧ bm )] = Ah i Al j Am k εlmh . (13.86)
−1
Ricordando che l’applicazione A deve essere non singolare (cfr. (4.3) e che (det A) = det A−1 (scaturisce
immediatamente dalla (13.66)) si ottiene l’identità
Poiché la precedente è in disaccordo con la legge di trasformazione delle componenti (10.117) ne discende
che l’indicatore di Levi-Civita non fornisce le componenti di un tensore. Solo se nel cambiamento di base
considerato det A = 1 allora le trasformazioni (13.87) coincidono con quelle di un tensore. Per questa ragione
talvolta si dice che l’indicatore di Levi-Civita è uno pseudo-tensore.
Valgono inoltre le seguenti relazioni, delle quali si lascia la dimostrazione al lettore:
Proposizione 168 Ogni tensore T ∈ Hom (V, V) . può esprimersi come somma di un tensore sferico:
1
D=T− (Tr T) 1I. (13.93)
3
u = x ∧ w, v = y ∧ w. (13.94)
w := u ∧ v,
w∧u w∧v
x := , y := . (13.95)
w·w w·w
Si consideri ora la identità
(a ∧ b) ∧ c = (a · c) b− (b · c) a, ∀a, b, c ∈V, (13.96)
(la precedente verrà ricavata nella sezione relativa ai tensori antisimmetrici, cfr. proposizione 192). Osservando
che, dall’assioma (13.17) le coppie di vettori u, w e v, w risultano essere ortogonali rispetto al prodotto scalare
definito in V si ha:
1 1
x∧w = (w ∧ u) ∧ w = [(w · w) u− (u · w) w] = u,
w·w w·w (13.97)
1 1
y∧w = (w ∧ v) ∧ w = [(w · w) v− (v · w) w] = v,
w·w w·w
onde l’asserto.
a ∧ b =µ (u ∧ v) , µ ∈ IR. (13.98)
Allora
T (a) ∧ T (b) = µT (u) ∧ T (v) . (13.99)
122 CAPITOLO 13. TENSORI DOPPI
Stabiliamo ora la relazione tra il determinante di un dato tensore T ed il suo tensore aggiunto.
Proposizione 172 Sia T ∈ Hom (V, V) . Allora
(det T) 1I = TT TA . (13.110)
Dimostrazione Siano u, v, w ∈V tre vettori linearmente indipendenti. Ricordando le (13.57), (13.90) si
ha:
£ ¤ £ ¤
det T [1I (u ∧ v)] · w = [(T (u) ∧T (v))] · T (w) = TA (u ∧ v) · T (w) = TT TA (u ∧ v) · w, (13.111)
da cui
(det T) 1I = TT TA . (13.112)
Dalla proposizione precedente discende che se T ∈ Hom (V, V) è un automorfismo, il suo inverso ed il suo
aggiunto sono legati dalla seguente:
£ ¤T
T−1 = (det T)−1 TA . (13.113)
13.5. TENSORE AGGIUNTO. 123
Proposizione 173 Sia T ∈ Hom (V, V) e TA il suo aggiunto. Dette Tij = bi · T (bj ) le componenti del
tensore T nella base ortonormale B = (b1 , b2 , b3 ) , si ha:
Dimostrazione
1. Si consideri la base ortonormale B di V. Dalla (13.28) e dalla linearità di TA si ottiene:
¡ ¢
εhk j TijA = bi ·TA εhk j bj = bi ·TA (bh ∧ bk ) = bi ·(T (bh ) ∧ T (bk )) = bi ·(Tph bp ∧ Tqk bq ) , (13.116)
avendo indicato con Tph la componente lungo bp del vettore T (bh ) . Dalla trilinearità del prodotto triplo
è possibile scrivere:
εhk j TijA = bi · (Tph bp ∧ Tqk bq ) = Tph Tqk [bi · (bp ∧ bq )] = Tph Tqk [bi · (bp ∧ bq )] = Tph Tqk εi pq .
(13.117)
Osservando che1
εhk j εl hk = 2δ jl , (13.118)
discende
2TilA = εi pq εl hk Tph Tqk . (13.119)
2. Dette
1 hk pq
TijA = εi εj Thp Tkq , (13.120)
2
£ ¤T
le componenti di¡ TA nella ¢base B, dalla proposizione 161 il tensore TA nella base prodotto generata
dalla base R = b1 , b2 , b3 reciproca di B può esprimersi come
£ A ¤T 1 pq hk ¡ ¢
T = εi εj Thp Tkq bi ⊗ bj . (13.121)
2
¡ ¢
Se TT = Tji bi ⊗ bj è il tensore trasposto di T nella stessa base prodotto, ripercorrendo i passi che
hanno condotto alla (13.114) con TT in luogo di T si ottiene
£ T ¤A 1 hk pq ¡ ¢
T = εi εj Tph Tqk bi ⊗ bj . (13.122)
2
Poiché fissata la base i coefficienti sono unici ne discende l’asserto.
Espandendo il secondo membro della (13.114) è facile convincersi che fissata una base B di V, la componente
TijA del tensore TA è data dal determinante del complemento algebrico dell’elemento Tij della matrice T i cui
elementi sono le componenti del tensore T nella stessa base. Si consideri ad esempio
A 1 £¡ 23 13 ¢ ¡ ¢¤
T12 = ε1 ε2 T21 T33 + ε1 23 ε2 31 T23 T31 + ε1 32 ε2 13 T31 T23 + ε1 32 ε2 31 T33 T21
2
1
= [(−T21 T33 + T23 T31 ) + (T31 T23 − T33 T21 )] = T23 T31 − T21 T33
2 µ ¶
T T23
= (−1)(1+2) det 21 . (13.123)
T31 T33
Proposizione 174 Sia T ∈ Hom (V, V) e TA il suo aggiunto. Valgono le seguenti proprietà:
1 La seguente si ottiene semplicemente espandendo il termine εhk j εl hk .
124 CAPITOLO 13. TENSORI DOPPI
£ ¤A
1. TA = (det T) T;
2. Tr TA = IIT .
Dimostrazione
avendo fatto uso della identità (13.96). Dalla (13.17) e dalla definizione di determinante si ha inoltre
£ A ¤A
T (u ∧ v) = (det T) T [(x· (y ∧ w)) w] = (det T) T [(x · v) w] , (13.126)
Dalla definizione di aggiunto e da quella di trasposto, il primo dei tre addendi a secondo membro può
essere riscritto come:
¡ ¢ £ ¤T
u · (T (v) ∧ T (w)) = u · TA (v ∧ w) = (v ∧ w) · TA (u) . (13.129)
Si consideri ora il secondo addendo; dalla proposizione 169 esistono x, y ∈V tali che v = x ∧ y. Ricor-
dando la identità (13.96) si ha:
Combinando le (13.129), (13.132), (13.133) ed ancora dalla proposizione 173 e dalle (13.55), (13.88),
discende l’asserto.
13.6. IL TEOREMA DI CAYLEY-HAMILTON. 125
Qualora λ esista, esso è detto autovalore relativo all’autovettore v. La precedente definizione può essere
enunciata in modo reciproco dicendo che uno scalare λ ∈ IR è un autovalore per un tensore T ∈ Hom (V, V)
se esiste un vettore non nullo v ∈ V tale che valga la (13.134). Lo spazio caratteristico od autospazio di
T corrispondente a λ è il sottospazio di V costituito da tutti i vettori v tali che:
La precedente, nota come equazione caratteristica per T, tenendo presente la (13.57) può esprimersi nel
modo seguente:
(T (a) − λa) · [(T (b) − λb) ∧ (T (c) − λc)] = 0, ∀a, b, c ∈ V. (13.137)
Sviluppando il prodotto triplo con l’ausilio delle (13.15), (13.16) ed utilizzando le definizioni (13.55), (13.56),
(13.57) degli invarianti si giunge alla forma equivalente
Poichè i tre invarianti principali sono reali, la precedente espressione afferma che il tensore T possiede tre
autovalori reali oppure ne possiede uno soltanto.
Sia T ∈ Hom (V, V); il suo quadrato T2 è definito come
T2 = TT. (13.139)
Partendo da
T0 = 1I, (13.140)
è possibile definire tutte le potenze di T per induzione nel modo seguente:
Tk = TTk−1 , (13.141)
Proposizione 175 Sia T ∈ Hom (V, V) un tensore arbitrario e λ ∈ IR un suo autovalore. Allora:
Tn (v) = λn v, (13.143)
La sua validità è quindi estendibile ad ogni intero positivo n. Essendo pn (T) una combinazione lineare di
potenze di T, ne segue che pn (λ) è un suo autovalore e v ne è l’autovettore associato:
Proposizione 176 Ogni tensore soddisfa la propria equazione caratteristica; nella fattispecie:
Risulta tuttavia
p3 (λ) = λ3 − λ2 Tr T + λIIT − det T. (13.149)
Dalla (13.110) si ha inoltre
h iT
A
det (T − λ1I) 1I = p3 (λ) 1I = (T − λ1I) (T − λ1I) . (13.150)
h iT
Combinando la precedente con la (13.148) si evince che (T − λ1I)A (T − λ1I) è l’endomorfismo nullo di
Hom (V, V). Sia ora v un autovettore di T associato all’autovalore λ; la proposizione precedente afferma che
esso è anche un autovettore di
da cui
p3 (T) = T3 − (Tr T) T2 + (IIT ) T − (det T) 1I = 0. (13.154)
L’endomorfismo p3 (T) possiede evidentemente tre autovalori nulli. Esistono tuttavia tensori non nulli
aventi essi stessi tre autovalori nulli. Siano u, v ∈V due vettori non nulli ed ortogonali rispetto al prodotto
scalare definito in V; l’endomorfismo (u ⊗ v) è evidentemente diverso dal tensore nullo ma, in virtù della
proposizione 164, esso possiede tre autovalori nulli.
A = Aij ei ⊗ ej ,
(13.155)
B = B ij ei ⊗ ej .
13.8. TENSORI SIMMETRICI. 127
Ricordando che Hom (V, V) e T11 (V) sono isomorfi, tenendo presente la identificazione T2 (V) ≡ T11 (V) ≡
T2 (V) e scelta la contrazione C, dalla (12.90) si ha
(A · B)C := C (A ⊗ B) , (13.156)
con
C = Ci1 3 ◦ Ci2 4 . (13.157)
Seguendo la tradizione scegliamo
i1 = 1, i2 = 2, (13.158)
definendo il prodotto scalare
detto in letteratura prodotto scalare naturale associato allo spazio Hom (V, V). Ricordando che
A (B (e1 )) · (e2 ∧ e3 )
= A Bj [ei ⊗ ek ] (e1 ) = Aij Bj k δ k1 ei
ij k
si ottiene
Tr (AB) = Aij Bj1 [ei · (e2 ∧ e3 )] + Aij Bj2 e1 · (ei ∧ e3 ) + Aij Bj3 [e1 · (e2 ∧ ei )]
¡ ¢
= A1j Bj1 + A2j Bj2 + A3j Bj3 [e1 · (e2 ∧ e3 )]
= Aij Bji , (13.162)
da cui ³ ´
A · B = Tr ABT . (13.163)
Dimostrazione Siano S, e
S ∈ Sym (V, V). Dalla proposizione 157 segue che, ∀α, β ∈ IR
³ ´T
S = αST + β e
αS + β e ST = αS + β e
S ⇒ αS + β e
S ∈ Sym (V, V) . (13.165)
In virtù della proposizione 6 Sym (V, V) è quindi un sottospazio di Hom (V, V).
Stabiliamo ora la dimensione di Sym (V, V).
Proposizione 178 Sia V uno spazio vettoriale sul quale è definito un prodotto scalare non degenere, definito
n
positivo a valori in IR, e sia dim V = n. Allora dim Sym (V, V) = (n + 1).
2
128 CAPITOLO 13. TENSORI DOPPI
Dimostrazione Dalla 13.33, se (e1 , e2 , ..., en ) è una base di V, tra le n2 componenti di S ∈ Sym (V, V)
sussistono le relazioni indipendenti
Il numero di tali relazioni uguaglia il numero delle combinazioni semplici Cn,2 2 . Il numero delle componenti
indipendenti di un tensore simmetrico risulta quindi essere
µ ¶
2 2 n
n − Cn,2 = n −
2
n!
= n2 − (13.167)
2! (n − 2)!
n (n − 1) n
= n2 − = (n + 1) ,
2 2
n
da cui dim Sym (V, V) = (n + 1).
2
La precedente proposizione suggerisce che il numero delle componenti indipendenti di un tensore simmetrico
valutate in una base di uno spazio vettoriale tridimensionale V è pari a sei; in forma matriciale
⎛ ⎞
S11 S12 S13
S = ⎝S12 S22 S23 ⎠ . (13.168)
S13 S23 S33
Proposizione 179 Ogni tensore nella forma (u ⊗ v + v ⊗ u) appartiene a Sym (V, V) ∀u, v ∈ V.
Proposizione 180 Sia (e1 , e2 , ..., en ) una base ortonormale di V. La famiglia di tensori doppi definiti come
1
E(ij) := (ei ⊗ ej + ej ⊗ ei ) , i ≤ j (nessuna somma sugli indici ripetuti), (13.169)
2
costituisce una base per Sym (V, V).
© ª
Dimostrazione L’appartenenza di tutti gli elementi dell’insieme E(ij) , i ≤ j allo spazio Sym (V, V)
discende immediatamente dalla proposizione precedente, mentre la proprietà
© ª n
Card E(ij) , i ≤ j = (n + 1) = dim Sym (V, V) , (13.170)
2
è conseguenza della proposizione 178. Rimane © ora da stabilire laªloro indipendenza lineare in Sym (V, V). Si
consideri a tal proposito l’insieme di scalari S ij , i, j = 1, 2, ..., n tali che S ij = S ji e la combinazione lineare
Xn X n X j
S ij
(ei ⊗ ej + ej ⊗ ei ) = 2 S ij E(ij) . (13.171)
i,j=1
2 j=1 i=1
Supponendo che tale combinazione lineare fornisca il tensore nullo di Hom (V, V) si ha
¡ ¢
0 eh , ek = 0 =
X n
S ij ¡ ¢
= [ei ⊗ ej + ej ⊗ ei ] eh , ek =
i,j=1
2
S ij ³ k h ´ 1¡
Xn
¢
= δ j δ i + δ ki δ hj = S hk + S kh = S hk , h, k = 1, 2, ..., n. (13.172)
i,j=1
2 2
© ª
Essendo nulli tutti i coefficienti della combinazione lineare ne discende che i tensori E(ij) , i ≤ j sono
linearmente indipendenti in Sym (V, V), onde l’asserto.
2 Il numero delle relazioni indipendenti fra le (13.166) uguaglia il numero dei sottoinsiemi di 2 elementi di {1, ..., n} e non il
numero delle coppie ordinate che si possono formare a partire da {1, ..., n}.
13.8. TENSORI SIMMETRICI. 129
Sia dim V = 3. Dalla proposizione 178 discende dim Sym ¡ (V, V) =¢ 6. Le componenti dei tensori E(ij)
definiti dalla (13.169) e valutate nella base ortonormale R = e1 , e2 , e3 sono
hk
¡ ¢
E(ij) = E(ij) eh , ek = (13.173)
¡ ¢ 1 k h³ ´
= eh · E(ij) ek = δ δ + δ ki δ hj , h, k, i, j = 1, 2, 3, i ≤ j.
2 j i
Le corrispondenti matrici associate sono
⎛ ⎞ ⎛ 1
⎞ ⎛ 1
⎞
1 0 0 0 2 0 0 0 2
E(11) = ⎝0 0 0⎠ ; E(12) = ⎝ 12 0 0⎠ ; E(13) = ⎝0 0 0⎠ ;
1
0 0 0 0 0 0 2 0 0
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ (13.174)
0 0 0 0 0 0 0 0 0
E(22) = ⎝0 1 0⎠ ; E(23) = ⎝0 0 1⎠
2 ; E(33) = ⎝0 0 0⎠ .
1
0 0 0 0 2 0 0 0 1
Un tensore S ∈ Sym (V, V) possiede tre autovalori λ1 , λ2 , λ3 quando ciascuno di essi sia contato con la
propria molteplicità algebrica (confronta il Capitolo 8, ed in particolare la proposizione 112), associati a tre
autovettori p1 , p2 , p3 ortonormali in V (cfr. proposizione 117). Dalla (13.43) e dalla definizione di autovalore
data nella sezione 6.1 si ottiene
⎡ ⎤
X3 3
X 3
X
S = S [1I] = S ⎣ (pj ⊗ pj )⎦ = [S (pj ) ⊗ pj ] = [λj (pj ⊗ pj )] . (13.175)
j=1 j=1 j=1
Se ∀u ∈ V
u · T (u) >0, (13.177)
diremo che il tensore T è definito positivo.
Proposizione 181 Se S ∈ Sym (V, V) è semi-definito positivo i suoi autovalori λj , j = 1, 2, 3 sono non
negativi, ovvero risulta λj ≥ 0.
Proposizione 182 Sia S ∈ Sym (V, V) un tensore semi-definito positivo. Allora esiste ed è unica la sua
radice quadrata S1/23 Il tensore S1/2 è simmetrico definito positivo ed ha la seguente rappresentazione spettrale
3
X 1/2
S1/2 = λj (pj ⊗ pj ) , (13.179)
j=1
dove (λ1 , λ2 , λ3 ) sono gli autovalori di S ai quali sono associati gli autovettori normalizzati (p1 , p2 , p3 ).
3 Sia
S ∈ Sym(V, V). La sua radice quadrata è il tensore S1/2 tale che S1/2 S1/2 = S.
130 CAPITOLO 13. TENSORI DOPPI
chiaramente simmetrico semi-definito positivo. Ricordando che gli autovettori sono ortonormali il quadrato
di A è dato da
" 3 #⎡ 3 ⎤
X 1/2 X 1/2
A2 = AA = λi (pi ⊗ pi ) ⎣ λj (pj ⊗ pj )⎦
i=1 j=1
3
X 3
X
1/2 1/2
= λi λj (pj · pi ) (pi ⊗ pj ) = λh (ph ⊗ ph ) = S. (13.181)
i,j=1 h=1
A è quindi la radice quadrata di S, ovvero risulta essere S1/2 = A. Rimane ora da dimostrare l’unicità di S1/2 .
1/2
Supponiamo che esista un altro tensore S , radice quadrata di S, e che ξ sia un suo autovalore con relativo
autovettore q. Dalla definizione di autovalore ed autovettore associato si ha
1/2
S (q)=ξq; (13.182)
1/2
³ 1/2 ´ 1/2
³ 1/2 ´
S (q)=S S (q) = S (ξq) = ξ S (q) = ξ 2 q, (13.183)
1/2
dalle quali si evince che S ha gli stessi autovettori del suo quadrato S mentre i suoi autovalori sono la radice
1/2
quadrata di quelli associati ad S. In definitiva si ha dunque S = S1/2 .
Proposizione 183 Se S ∈ Sym (V, V) è un tensore definito positivo, allora S è non singolare.
Dimostrazione Dalla proposizione 181 i tre autovalori distinti di S soddisfano la condizione λj > 0, j =
1, 2, 3. Dalla (13.57) e scegliendo per essa la base ortonormale costituita dagli autovettori (p1 , p2 , p3 ) si ottiene
da cui la tesi.
La rappresentazione spettrale dell’inversa del tensore S di cui alla proposizione precedente è
3
X
S−1 = λ−1
j (pj ⊗ pj ) . (13.186)
j=1
Proposizione 184 Sia T ∈ Hom (V, V). Le applicazioni lineari TTT e TT T sono simmetriche semi-definite
positive. Se T è invertibile, allora TTT e TT T sono definite positive.
Consideriamo un vettore x ∈ V ed un tensore S simmetrico definito positivo; si vuole dare una interpre-
tazione geometrica dell’azione di S su x. A tal fine si consideri la rappresentazione polare
3
X
S= λj (pj ⊗ pj ) , (13.190)
j=1
nella quale (λ1 , λ2 , λ3 ) sono gli autovalori reali positivi di S e (p1 , p2 , p3 ) sono i relativi autovettori norma-
lizzati. l’azione di S su x risulta in un vettore
3
X 3
X 3
X
S (x) = λj (pj ⊗ pj ) x = λj (pj · x) pj = λj xj pj , (13.191)
j=1 j=1 j=1
le cui componenti nella base (p1 , p2 , p3 ) di V sono λ1 x1 , λ2 x2 , λ3 x3 . Il tensore S è dunque una trasformazione
di V consistente in estensioni (se λj > 1) od accorciamenti (se 0 < λj < 1) lungo le direzioni degli autovettori
pj , note come assi principali di S.
Proposizione 186 Sia V uno spazio vettoriale sul quale è definito un prodotto scalare non degenere, definito
n
positivo a valori in IR, e sia dim V = n. Allora dim Skw (V, V) = (n − 1).
2
Dimostrazione Siano u, v ∈ V due vettori arbitrari; dalla (13.33) segue che
Sia (e1 , e2 , e3 ) una base di V. Ricordando che in tale base le componenti di W sono Wij = ei ·W (ej ) , dalla
precedente uguaglianza discende che
Wij = 0 se i = j, (13.195)
Wij = −Wji se i 6= j. (13.196)
Le (13.195) stabiliscono che solo n2 − n componenti di W possono essere non nulle. Le (13.196) stabiliscono
n
che queste n2 − n componenti sono a due a due l’una l’opposta dell’altra, e quindi stabiliscono (n − 1)
2
relazioni. Di conseguenza le componenti indipendenti di W sono
³ n ´ n
n2 − n + (n − 1) = (n − 1) . (13.197)
2 2
Quindi
n
dim Skw (V, V) = (n − 1) . (13.198)
2
Il numero delle componenti indipendenti di un tensore antisimmetrico valutate in una base di uno spazio
vettoriale tridimensionale V è, in virtù della precedente proposizione, pari a tre; in forma matriciale:
⎛ ⎞
0 W12 W13
W = ⎝−W12 0 W23 ⎠ . (13.199)
−W13 −W23 0
132 CAPITOLO 13. TENSORI DOPPI
Proposizione 187 Ogni tensore nella forma (u ⊗ v − v ⊗ u) è un elemento di Skw (V, V) , ∀u, v ∈ V.
WT = (v ⊗ u)T − (u ⊗ v)T
= u ⊗ v − v ⊗ u = − W, (13.200)
Proposizione 188 Sia (e1 , e2 , e3 ) una base ortonormale di V. La famiglia di tensori doppi definiti come
1
A[ij] := (ei ⊗ ej − ej ⊗ ei ) , i ≤ j (nessuna somma sugli indici ripetuti), (13.201)
2
costituisce una base per Skw (V, V).
onde l’asserto.
Proposizione 190 Sia W ∈ Skw (V, V). Allora esiste un vettore p ∈ V tale che
W (p) = 0. (13.205)
p1 = p2 ∧ p3 ,
p2 = p3 ∧ p1 ,
(13.206)
p3 = p1 ∧ p2 ,
p1 · (p2 ∧ p3 ) = 1.
Ricordando le (13.195), (13.196), (13.194), ed il risultato stabilito nella proposizione precedente, le componenti
di un tensore W ∈ Skw (V, V) in tale base sono
Escluso il caso in cui W è il tensore nullo, la quantità ω deve essere diversa da zero. Stante la proposizione
188, nella base prodotto generata dalla base (p1 , p2 , p3 ) di V, il tensore W si rappresenta come
Proposizione 191 Sia W ∈ Skw (V, V). Allora esiste un unico vettore w detto vettore assiale o croce di
Gibbs di W tale che
W (u) = w ∧ u ∀u ∈V. (13.209)
w2 a3 − w3 a2 = 0 ∀a =⇒w2 = w3 = 0, (13.213)
w1 a3 = ωa3 , (13.214)
1 2 2
w a = ωa , (13.215)
ovvero w1 = ω,
w =ωp1 . (13.216)
Poiché p1 è un autovettore di W, esso deve essere diverso dal vettore nullo; è stato inoltre precedentemente
stabilito che se W non è il tensore nullo lo scalare ω è diverso da zero. Da tali considerazioni si deduce che ad
un tensore antisimmetrico W 6= 0 compete un unico vettore assiale w 6= 0.
Andiamo ora a stabilire il legame tra le componenti di un tensore antisimmetrico in una generica base
ortonormale (e1 , e2 , e3 ) di V e le componenti del suo vettore assiale nella stessa base. Posto
W = W ij ei ⊗ ej , w = wk ek , a=ah eh ∈ V,
si ha
w ∧ a= εij k wi aj ek
£ ¤ £ ¤ £ ¤
= w2 a3 − w3 a2 e1 + w3 a1 − w1 a3 e2 + w1 a2 − w2 a1 e3 . (13.218)
w1 = − W 2 3 ,
w2 = W 1 3 , (13.220)
3 1
w =−W 2 .
134 CAPITOLO 13. TENSORI DOPPI
Sia W ∈ Skw (V, V) nella forma (13.208); andando a considerare le (13.55), (13.56), (13.57) con la base
(p1 , p2 , p3 ) precedentemente introdotta e tenendo presente la proposizione 190, si ottengono le seguenti
espressioni per gli invarianti di W:
Tr W = W (p1 ) · (p2 ∧ p3 ) + p1 · (W (p2 ) ∧ p3 ) + p1 · (p2 ∧ W (p3 ))
= p1 · (W (p2 ) ∧ p3 ) + p1 · (p2 ∧ W (p3 )) ,
IIW = W (p1 ) · (p2 ∧ W (p3 )) + p1 · (W (p2 ) ∧ W (p3 )) + W (p1 ) · (W (p2 ) ∧ p3 ) (13.221)
= p1 · (W (p2 ) ∧ W (p3 )) ,
det W = W (p1 ) · (W (p2 ) ∧ W (p3 )) = 0.
Dalla proposizione 191 con w =ωp1 si ha
W (p2 ) = ωp1 ∧ p2 = ωp3 ,
(13.222)
W (p3 ) = ωp1 ∧ p3 = −ωp2 ,
da cui
Tr W = ω [p1 · (p3 ∧ p3 ) − p1 · (p2 ∧ p2 )] = 0,
(13.223)
IIW = p1 · (W (p2 ) ∧ W (p3 )) = ω 2 [p1 · (p2 ∧ p3 )] = kwk2 .
Chiudiamo la sezione relativa ai tensori antisimmetrici con la seguente proposizione:
e quindi, stante la (13.216) il vettore assiale di W è pari a α (u ∧ v), α ∈ IR. Dalla proposizione 191 si ha,
∀a ∈ V
W (a)=α (u ∧ v) ∧ a;
(a · u) v − (a · v) u=α (u ∧ v) ∧ a. (13.225)
In virtù della proposizione 103 A è lineare. Diremo che un tensore Q ∈ Hom (V, V) che goda della precedente
proprietà è ortogonale. Dalla definizione di trasposto si ricava la seguente condizione necessaria e sufficiente
affinché Q sia ortogonale: £ ¤
Q (u) ·Q (v) = v· QT Q (u) =v · u ⇒ QT Q = 1I. (13.228)
Denoteremo con n o
Ort (V, V) := Q | Q ∈ Hom (V, V) & QT Q = QQT = 1I , (13.229)
l’insieme dei tensori ortogonali. Dalla proposizione 165 a dalla (13.90) si deduce che:
¡ ¢
det QT Q = det 1I =⇒
det QT det Q = 1 =⇒ (13.230)
2
(det Q) = 1 ⇒ det Q = ±1.
Un tensore Q ∈ Ort (V, V) è quindi dotato di inversa data da Q−1 = QT . Un tensore avente determinante pari
ad 1 è detto ortogonale proprio, mentre è detto ortogonale improprio nel caso contrario. Si considereranno
nel seguito tensori ortogonali propri.
13.10. TENSORI ORTOGONALI. 135
Proposizione 193 Siano Q, R ∈ Ort (V, V); allora l’applicazione QR è un tensore ortogonale.
QT (Q − I) = − (Q − I)T . (13.232)
Esiste dunque una direzione dello spazio V lasciata inalterata dall’azione del tensore ortogonale Q. Analoga-
mente a quanto fatto per i tensori antisimmetrici, scegliamo una base ortonormale (p1 , p2 , p3 ) costituita
dall’autovettore p1 associato all’autovalore λ = 1 e dai vettori p2 , p3 che verifichino:
p1 = p2 ∧ p3 ,
p2 = p3 ∧ p1 ,
(13.235)
p3 = p1 ∧ p2 ,
p1 · (p2 ∧ p3 ) = 1.
Proposizione 195 Sia Q ∈ Ort (V, V) e A = (p1 , p2 , p3 ) la base ortonormale di V precedentemente introdot-
ta. Esiste uno scalare θ ∈]−π, π] tale che, nella base prodotto generata da A, vale la seguente rappresentazione
per Q:
Q = p1 ⊗ p1 + cos θ (p2 ⊗ p2 + p3 ⊗ p3 ) − sin θ (p2 ⊗ p3 − p3 ⊗ p2 ) . (13.236)
Q = Qij pi ⊗ pj , (13.237)
con le componenti Qij = pi · Q (pj ) = δ ih δ jk Qhk . Dalla (13.234) e dalla ortonormalità dei vettori pj si ottiene
È possibile ottenere una ulteriore relazione per i quattro parametri α, β, γ, δ dal determinante di Q:
α = δ = cos θ,
(13.243)
β = −γ = sin θ.
Andiamo ora a calcolare gli autovalori Q, ovvero le radici del polinomio caratteristico
Diamo ora una interpretazione geometrica dell’azione di un tensore Q ∈ Ort (V, V) su un vettore x ∈V. Siano
Q ∈ Ort (V, V) ed x ∈V rispettivamente un tensore ortogonale ed un vettore rappresentati nella base A come
l’azione di Q su x è data da
√
Definito
¡ 1 il numero complesso
¢ z = x2 + ix3 , i = −1, le componenti del vettore x nella base A in termini di z
¡sono x , Re z, Im z ¢, mentre le componenti del vettore Q (x) nella stessa base ed ancora in termini di z sono
x1 , Re zeiθ , Im zeiθ , essendo
¡ ¢
zeiθ = x2 + ix3 (cos θ + i sin θ)
¡ ¢ ¡ ¢
= x2 cos θ − x3 sin θ + i x3 cos θ + x2 sin θ . (13.254)
l’effetto di Q è quindi quello di trasportare il vettore x in un vettore Q (x) ruotato rispetto all’originale di un
angolo θ intorno alla direzione p1 . Come anticipato dalle 13.234, esiste una direzione dello spazio che non
risente dell’azione di Q; tale direzione è quella dell’autovettore p1 relativo all’autovalore λ = 1.
Proposizione 196 Gli elementi dell’insieme Ort (V, V) con dim V = 3 sono ∞3 .
Dimostrazione Dall’esempio precedente si evince che Ort (V, V) è in corrispondenza biunivoca (e bicon-
tinua) con l’insieme S 2 × S 1 , dove S 2 è la superficie della sfera di raggio kp1 k = 1 ed S 1 è la circonferenza di
¯ iθ ¯ p
raggio ¯e ¯ = cos θ + sin2 θ = 1. Poiché S 2 è descritta da due parametri, mentre S 1 è data al variare di θ,
2
ne discende l’asserto.
Πv = span (v1 , v2 ) ,
(13.255)
Πw = span (w1 , w2 ) ,
le due giaciture individuate rispettivamente dagli assi v1 , v2 e w1 , w2 . L’intersezione dei piani Πv Πw definisce
una retta detta linea dei nodi; indicheremo con ν ∈V il versore che ne da la direzione in V. Il primo angolo
di Eulero è lo scalare ψ ∈ ]−π, π] individuato dalla
cos ψ = v1 · ν, (13.256)
dove Qψ è la matrice ortogonale associata al cambiamento di base da V ad A; è facile verificare che essa è la
matrice associata al tensore Qψ nella base V. Il secondo angolo di Eulero è lo scalare φ ∈ ]−π, π] definito
dalla
cos φ = v3 · w3 , (13.262)
ovvero è l’angolo formato dalle due giaciture Πv Πw . Definiamo il tensore ortogonale
corrispondente ad una rotazione antioraria intorno all’asse ν. Con riferimento ai vettori della base A, esso
lascia inalterato ν mentre trasporta Qψ (v2 ) in
e v3 in
Qφ (v3 ) = cos φv3 − sin φQψ (v2 ) = w3 , (13.265)
dalla (13.262). L’applicazione successiva dei tensori Qψ e Qφ , ovvero del tensore (Qφ Qψ ) produce l’effetto di
trasportare i vettori v1 e v2 sul piano Πw ed il vettore v3 sul vettore w3 . Sia
dove Qφ è la matrice ortogonale associata al cambiamento di base da A a B; tale matrice è associata al tensore
Qφ quando sia stata scelta la base A. La matrice composta
⎛ ⎞⎛ ⎞ ⎛ ⎞
1 0 0 cos ψ sin ψ 0 cos ψ sin ψ 0
Qφ Qψ = ⎝0 cos φ sin φ ⎠ ⎝− sin ψ cos ψ 0⎠ = ⎝− cos φ sin ψ cos ψ cos φ sin φ ⎠ , (13.268)
0 − sin φ cos φ 0 0 1 sin ψ sin φ − cos ψ sin φ cos φ
è invece quella associata al tensore (Qφ Qψ ) quando sia stata scelta la base V. Definiamo terzo angolo di
Eulero lo scalare ϑ ∈ ]−π, π] dato da
cos ϑ = ν · w1 , (13.269)
ovvero l’angolo formato dalla linea dei nodi e l’asse w1 della base W. Considerato il tensore ortogonale
¡ ¢
Qϑ = w3 ⊗ w3 + cos ϑ ν ⊗ ν + Qφ (Qψ (v2 )) ⊗ Qφ (Qψ (v2 ))
− sin ϑ (ν ⊗ Qφ (Qψ (v2 )) − Qφ (Qψ (v2 )) ⊗ ν) , (13.270)
La matrice ⎛ ⎞
cos ϑ sin ϑ 0
Qϑ = ⎝− sin ϑ cos ϑ 0⎠ , (13.272)
0 0 1
è quella associata al tensore Qϑ quando sia scelta la base B, e la matrice
⎛ ⎞
cos ϑ cos ψ − cos φ sin ψ sin ϑ cos ϑ sin ψ + cos ψ cos φ sin ϑ sin φ sin ϑ
Qϑ Qφ Qψ = ⎝− cos ψ sin ϑ − cos φ cos ϑ sin ψ − sin ψ sin ϑ + cos ψ cos φ cos ϑ cos ϑ sin φ⎠ , (13.273)
sin ψ sin φ − cos ψ sin φ cos φ
è quella associata al tensore (Qϑ Qφ Qψ ) quando sia scelta la base V. La precedente è la rappresentazione
di un tensore ortogonale attraverso gli angoli di Eulero. La somma di due rotazioni si esprime quindi nella
composizione di due matrici ortogonali dipendenti dalle ampiezze di tali rotazioni. Si consideri ad esempio
una base V ed una base W ottenuta dalla prima a seguito di due rotazioni di ampiezza rispettiva β e γ intorno
all’asse v1 . Si ha ⎛ ⎞ ⎛ ⎞⎛ ⎞
w1 1 0 0 v1
⎝w2 ⎠ = ⎝0 cos (β + γ) sin (β + γ) ⎠ ⎝v2 ⎠ . (13.274)
w3 0 − sin (β + γ) cos (β + γ) v3
13.11. TEOREMA DI DECOMPOSIZIONE ADDITIVA. 139
Gli spazi Sym (V, V) e Skw (V, V) risultano quindi ortogonali rispetto al prodotto scalare definito in Hom(V, V).
In definitiva
Sym (V, V) ⊥ Skw (V, V) , (13.283)
ed in virtù della proposizione 7.17
Hom (V, V) = Sym (V, V) ⊕ Sym (V, V)⊥
= Sym (V, V) ⊕ Skw (V, V) . (13.284)
Si noti che, ancora dalla proposizione 7.17, dim Hom (V, V) = dim Sym (V, V) + dim Skw (V, V) = 6 + 3 = 9.
140 CAPITOLO 13. TENSORI DOPPI
Dimostrazione Dalla proposizione 184 le applicazioni LT L ed LLT risultano simmetriche definite positive.
La proposizione 182 afferma per ognuna di esse l’esistenza di un’ unica radice quadrata anch’ essa simmetrica
definita positiva. Posto
¡ ¢1/2 ³ ´1/2
U := LT L , V := LLT , (13.286)
Si ha dunque
L = QU = VR. (13.289)
Andiamo ora a dimostrare l’unicità. Supponiamo che L ammetta una seconda decomposizione polare sinistra
L=Ve R.
e Il calcolo di LLT porge
³ ´T ³ ´
eR
LLT = V e V
eRe e R
=V eR
eT Ve=V
e 2. (13.290)
e = V; finalmente
Ancora dalla proposizione 182 segue che V
e=V
R e −1 L = V−1 L = R. (13.291)
Con argomentazione analoga si dimostra l’unicità della decomposizione polare destra. Per completare la
dimostrazione occorre provare che Q = R. Essendo R ortogonale e dal fatto che V possiede una ed una
soltanto radice quadrata simmetrica definita positiva si ha
³ ´ ¡ ¢
L = QU = RRT VR = R RT VR
∙³ ´T ³ ´¸
= R V1/2 R V1/2 R . (13.292)
¡ ¢
La precedente identifica QU ed R RT VR come due decomposizioni polari destre tra loro equivalenti con
Q = R, (13.293)
U = RT VR. (13.294)
Quest’ultima è la relazione tra U e V, parti simmetriche della decomposizione polare destra e sinistra.
È interessante notare il parallelismo con la rappresentazione polare del numero complesso z = reiθ ; i
tensori simmetrici definiti positivi U e V sono l’analogo del modulo r, mentre la rotazione del piano complesso
eiθ trova il suo analogo nel tensore ortogonale R.
AB = BA. (13.295)
Fissato un autovalore del tensore A ∈ Sym (V, V) , denoteremo con E (λ) il sottospazio di V (cfr. sezione
6.2) generato dagli autovettori di A relativi a λ. Sia (v1 , v2 , v3 ) la base di V costituita dagli autovettori di A
13.13. IL TEOREMA DI COMMUTAZIONE. 141
(cfr. proposizione 118) e siano (λ1 , λ2 , λ3 ) i relativi autovalori contati con la propria molteplicità geometrica.
Secondo la notazione utilizzata si ha:
1. Se A e B commutano, allora gli autospazi di A (cfr. sezione 13.6 ed il Capitolo 6) sono invarianti sotto
B, ovvero si ha che se λ è un autovalore di A con associato autospazio E (λ) ⊂ V allora, considerato
v ∈E (λ) si ha B (v) ∈E (λ) .
2. Se gli autospazi di un tensore simmetrico A sono invarianti sotto B, allora A e B commutano.
Dimostrazione
1. Siano A e B tali che per essi valga la (13.295), e sia A (v) = λv. Allora
dal quale si evince che dal supporre che v sia un autovettore per A con autovalore associato λ, porta a
stabilire che B (v) appartiene a sua volta all’autospazio E (λ) contenente v.
2. Si scelga un vettore u e si consideri la sua decomposizione
X
u = αi vi , (13.298)
i
secondo una base di autovettori (v1 , v2 , v3 ) di A (che esiste in virtù della proposizione 118 nella Parte
I). Dalla ipotesi che gli autospazi siano invarianti sotto B, si ha che se vi ∈ E (λi ) , allora i vettori
B (vi ) ∈ E (λi ) . Si può quindi scrivere:
data l’arbitrarietà di u.
la quale, in virtù della proposizione precedente, si traduce nella proprietà che ogni autospazio di S è invariante
sotto tutte le rotazioni4 . Tuttavia gli autospazi di S sono sottospazi di V. Attraverso la seguente proposizione
stabiliremo che l’unico sottospazio di V invariante rispetto a tutte le rotazioni è V stesso.
Proposizione 200 Sia E (λ) un autospazio associato ad un tensore simmetrico S ∈ Sym (V, V) tale che
Allora, necessariamente:
E (λ) = V. (13.303)
Dimostrazione Poiché S è simmetrico, l’autospazio E (λ) è diverso dal sottospazio nullo (cfr. proposizione
118). È quindi lecito considerare un vettore non nullo v ∈ E (λ) ; inoltre, dovendo la (13.302) essere vera per
ogni tensore ortogonale proprio, è possibile considerare
P, Q, R ∈ Ort+ , (13.304)
4 In questo contesto si intende per rotazione un tensore ortogonale proprio (cfr. sezione 13.10).
142 CAPITOLO 13. TENSORI DOPPI
tali che:
P (v) · Q (v) = 0, P (v) · R (v) = 0, Q (v) · R (v) = 0, (13.305)
la quale insieme alla (13.302) afferma che {P (v) , Q (v) , R (v)} è un insieme di tre vettori linearmente indipen-
denti in E (λ). Si ha quindi
dim E (λ) = 3, (13.306)
onde l’asserto.
Dalla definizione di molteplicità geometrica di un autovalore (sezione 6.5), si ha che per avere dim E (λ) = 3
occorre necessariamente che il tensore simmetrico S possegga tre autovalori coincidenti, per cui S deve essere
sferico:
S = λ1I, λ ∈ IR. (13.307)
Ne discende la seguente:
Proposizione 201 Un tensore simmetrico che commuta con tutti i tensori ortogonali propri è sferico.
Capitolo 14
Prerequisito alla lettura di questo Capitolo è la conoscenza dei contenuti del Capitolo 1.
∆ : A × A → V, (14.1)
Gli elementi dell’insieme A sono detti punti, e V è detto spazio delle traslazioni. Quando V è dotato di
un prodotto scalare, A è detto spazio puntuale euclideo. Nel seguito, con abuso di notazione, utilizzeremo
per brevità lo stesso simbolo per lo spazio affine e per l’insieme dei punti.
Il vettore ∆ (x, y) ∈ V, x, y ∈ A, rappresenta la traslazione di punto iniziale y e punto finale x. l’assioma
(14.3) equivale alla richiesta che la funzione
∆x : A → V, (14.4)
definita come
∆x (y) := ∆ (x, y) , x, y ∈ A, (14.5)
sia biiettiva per ogni x, ovvero che, fissato x ∈ A essa stabilisca una corrispondenza biunivoca tra punti di A
e vettori di V. La dimensione di A è per definizione pari alla dimensione del suo spazio delle traslazioni.
È possibile dotare di struttura affine1 uno spazio vettoriale V definendo nel seguente modo l’operazione
differenza tra punti:
∆ (u, v) := u − v, ∀u, v ∈V. (14.6)
La circostanza precedente suggerisce l’introduzione della seguente notazione
∆ (x, y) ≡ x − y, x, y ∈ A, (14.7)
per l’operazione differenza tra punti. Pur essendo denotata allo stesso modo, tale operazione è ovviamente
ben distinta dalla differenza tra scalari e tra vettori come definite rispettivamente in un campo e in uno spazio
vettoriale. Tuttavia non tutti gli spazi affini possono essere costruiti in questo modo a partire da uno spazio
vettoriale.
La seguente proposizione dimostra che l’operazione differenza fra punti ha alcune proprietà in comune con
la differenza fra vettori.
x − x = 0, (14.8)
x − y = − (y − x) , (14.9)
x − y = x0 − y 0 ⇒ x − x0 = y − y 0 . (14.10)
1 Si lascia allo studioso lettore verificare che gli assiomi (14.2) e (14.3) quando U sia identificato con V stesso.
143
144 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
x − x = (x − x) + (x − x) , (14.11)
x − x = (x − z) + (z − x) , (14.12)
x − y 0 = (x − y) + (y − y 0 ) = (x − x0 ) + (x0 − y 0 ) . (14.13)
A : A → A, (14.16)
La proprietà (14.17) afferma che la differenza (A (x + v) − A (x)) ∈ V è indipendente dal punto x considerato,
ed è dunque funzione soltanto del vettore v ∈ V. È quindi lecito introdurre la funzione
LA : V → V, (14.19)
definita come
LA (v) := A (x + v) − A (x) . (14.20)
Come apparirà chiaro dall’enunciato, la seguente proposizione è detta teorema di rappresentazione
per le applicazioni affini.
Proposizione 203 Sia A uno spazio affine e V il suo spazio delle traslazioni. Una applicazione
A : A → A, (14.21)
In virtù dell’assioma (14.3), esiste ed è unico w ∈ V tale che w =y − h; sostituendo nella precedente:
Sommando ora a primo membro il vettore nullo A (h) − A (h) e raggruppando opportunamente i termini si
ottiene
[A (h + (w + v)) − A (h)] − [A (h + w) − A (h)] = A (h + v) − A (h) , (14.27)
da cui
LA (v + w) = LA (v) + LA (w) . (14.28)
Sia ora α ∈ IR. La proprietà
LA (αv) = αLA (v) , (14.29)
è immediata conseguenza dell’assioma (14.18) essendo
A : A → A, (14.31)
definita da2
A (x) = z + L (x − y) , ∀x, y ∈ A. (14.32)
è affine.
Si noti che la distanza tra due punti x ed y di E corrisponde al modulo del vettore (x − y) ∈ V. Diremo sfera
aperta di raggio ε centrata in x0 ∈ E il sottoinsieme di E
dei punti aventi distanza da x0 minore di un dato reale positivo ε. Analogamente, diremo sfera chiusa di
raggio ε il sottoinsieme di E
B ε (x0 ) := {x : d (x, y) ≤ ε} , ε > 0. (14.36)
2 Risulta ovviamente dalla definizione che A (y) = z.
146 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
Un intorno di un punto x ∈ E è un insieme contenente almeno una sfera aperta centrata in x. Relativa-
mente ad un sottoinsieme U di E diremo punto interno, punto esterno e punto di frontiera rispettiva-
mente un punto che possegga almeno un intorno completamente contenuto in U, un punto che possegga almeno
un intorno non contenente nessun punto di U ed infine un punto avente tutti gli intorni contenenti almeno un
punto di U ed almeno un punto non appartenente ad U. La totalità dei punti interni è detta interno, mentre
la totalità dei punti di frontiera è detta frontiera. Il sottoinsieme U è aperto se coincide con il suo interno, è
limitato se è incluso in almeno una sfera aperta ed è connesso se ogni coppia di punti in esso contenuti può
essere congiunta con una curva continua completamente contenuta in U. Un dominio di E è un sottoinsieme
di E aperto e connesso ed una regione di E è un sottoinsieme connesso di E il cui interno è non vuoto e che
contiene la sua frontiera.
Siano E, E0 due spazi puntuali euclidei e sia U ⊂ E un aperto. Una applicazione
f : U → E0 , (14.37)
ha limite in x0 ∈ E se
Proposizione 205 Siano E, E0 , E00 tre spazi puntuali euclidei ed U ⊂ E, U0 ⊂ E0 due aperti. Siano inoltre
f : U → U0 , g : U0 → E00 , (14.40)
h : U → E00 , h := g ◦ f, (14.41)
è continua.
∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d0 (f (x) , f (x0 )) < ε, (14.42)
∀ε0 > 0 ∃δ 0 (x00 , ε0 ) > 0 : d0 (x0 , x00 ) < δ 0 (x00 , ε0 ) ⇒ d00 (g (x0 ) , g (x00 )) < ε0 , (14.44)
avendo indicato con d00 la distanza in E00 . Combinando le precedenti espressioni si ottiene
∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d00 (g (f (x)) , g (f (x0 ))) < ε, (14.45)
∀ε > 0 ∃δ (x0 , ε) > 0 : d (x, x0 ) < δ (x0 , ε) ⇒ d00 (h (x) , h (x0 )) < ε. (14.46)
Consideriamo di nuovo due spazi puntuali euclidei E, E0 ed i rispettivi spazi delle traslazioni V, V0 . Sia
inoltre U ⊂ E un aperto; una applicazione
f : U → E0 , (14.47)
è differenziabile in x ∈ U se esiste una trasformazione lineare Lf,x ∈ Hom (V, V0 ) tale che
dove
o (x, v)
lim = 0. (14.49)
v→0 |v|
14.3. CONTINUITÀ E DIFFERENZIABILITÀ. CAMPI. 147
Chiudiamo la sezione enunciando la seguente proposizione, attraverso la quale si ricava una condizione
di esistenza della inversa locale di una applicazione sufficientemente regolare. Come vedremo, tale risultato
risulterà cruciale nello studio delle deformazioni dei corpi modellati come continui.
Proposizione 208 Sia f : U → E0 una applicazione di classe C k e si assuma che gradf (x0 ) , x0 ∈ U, sia
un isomorfismo. Allora esiste un intorno U0 di x0 tale che la restrizione di f ad U0 è un C k diffeomorfismo.
Si ha inoltre
gradf −1 (f (x0 )) = [gradf (x0 )]−1 . (14.63)
tali che ¡ ¢
zb (x) = zb 1 (x) , zb 2 (x) , ..., zb n (x) , ∀x ∈ U. (14.66)
Gli n campi scalari appena introdotti sono le funzioni coordinate della carta, e la applicazione zb è anche
detta sistema di coordinate su U.
Dati due aperti U1 ⊂ E ed U2 ⊂ E tali che U1 ∩ U2 6= ∅, e due carte (U1 , zb) , (U2 , yb) è determinata la
applicazione cambiamento di coordinate
e la sua inversa
zb ◦ yb −1 : yb (U1 ∩ U2 ) → zb (U1 ∩ U2 ) . (14.68)
Essendo ¡ ¢
yb (x) = yb 1 (x) , ..., yb n (x) , (14.69)
è lecito scrivere il cambiamento di coordinate nella forma
¡ 1 ¢ ¡ ¢
yb (x) , ..., yb n (x) = yb ◦ zb −1 zb 1 (x) , ..., zb n (x) , (14.70)
ed indicando impropriamente con lo stesso simbolo le funzioni stesse, introduciamo la notazione semplificata
¡ ¢ ¡ ¢
y i = y i z j , z i = z i y j , i, j = 1, 2, ..., n. (14.73)
¡ ¢ ¡ ¢
Le due n−ple y 1 , ..., y n e z 1 , ..., z n sono le coordinate del punto x ∈ U1 ∩ U2 , e ciascuna di esse è un
campo scalare definito nell’aperto U1 ∩ U2 . Poiché zb è un diffeomorfismo, l’equazione (14.66) riscritta nella
forma ¡ ¢
zb (x) = z 1 , ..., z n , (14.74)
può essere invertita ¡ ¢
e z 1 , ..., z n ,
x=x (14.75)
avendo introdotto il diffeomorfismo inverso
e : zb (U) → U.
x (14.76)
14.4. SISTEMI DI COORDINATE E VARIETÀ AFFINI. 149
E = ∪ Uα . (14.77)
α∈I
Diremo C k -varietà affine euclidea uno spazio puntuale euclideo dotato di un C k -atlante.
Una curva C ∞ in E è una applicazione di classe C ∞ :
γ : (a, b) → E, (14.78)
dove (a, b) è un aperto di IR. Sia x0 ∈ E; una curva C ∞ passa per il punto x0 se
Assegnata una carta (U, zb) e dato un punto x0 ∈ U, la j−esima curva coordinata passante per il punto x0
è la curva γ j definita da
³ ´
e z01 , ..., z0j−1 , z0j + t, z0j+1 , ..., z0n ,
γ j (t) = x (14.80)
avendo indicato con lo stesso simbolo la funzione ed il valore da essa assunto in x. Sia poi o un dato punto di
E; si definisce sistema di coordinate cartesiane in E la n-pla di campi scalari zb 1 , ..., zb n tali che
z j = zb j (x) = (x − o) · bj , x ∈ E. (14.84)
r (x) = x − o, ∀x ∈ E, (14.85)
è detto campo vettore posizione rispetto all’origine o. Il suo valore è appunto il vettore posizione del
punto x rispetto all’origine o. Sia poi B0 = (b1 , ..., bn ) la base di V reciproca della B (cfr. Capitolo 12 per la
definizione di base reciproca); la (14.84) implica la seguente catena di uguaglianze
¡ ¢
x−o=x e z 1 , ..., z n − o = r (x) = zb j (x) bj , (14.86)
dove il prodotto tra il campo scalare zbj ed il campo vettoriale costante bj è definito puntualmente, ovvero
£ j ¤
zb bj (x) := zb j (x) bj (x) , (14.87)
per ogni x appartenente all’intersezione dei domini dei campi zbj e bj . La (14.86) permette di esprimere la
(14.84) nella forma equivalente
zb j = r · bj , (14.88)
dove il prodotto scalare tra i due campi vettoriali r e bj è definito puntualmente
³ ´nello stesso senso specificato
1 n
dalla (14.87). Come esempio illustrativo si consideri una base B = b , ..., b di V ottenuta dalla base B
come
i
b = Qij bj , (14.89)
150 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
dove Qij è una matrice rettangolare a rango massimo, e sia o un dato punto di E. La (14.84) porge
j j
z j = (x − o) · b = [(x − o) + (o − o)] · b
j j
= (x − o) · b + (o − o) · b
j
= Qjk (x − o) · bk + (o − o) · b = Qjk z k + cj , (14.90)
j j
avendo utilizzato la linearità del prodotto scalare, la (14.89) ed avendo £ i ¤ introdotto le n costanti c = (o − o)·b .
Se le basi B e B sono entrambe ortonormali allora la matrice Qj è ortogonale. Si noti che i sistemi di
coordinate coinvolti hanno come dominio l’intero spazio E. Poiché ogni spazio vettoriale dotato di prodotto
scalare possiede sempre una base ortonormale, è comunque possibile associare ad ogni punto di E considerato
come origine un sistema di coordinate cartesiane rettangolari. ¡ ¢
Dato un sistema di coordinate cartesiane rettangolari, z 1 , ..., z n , è possibile caratterizzare un sistema di
coordinate generali o curvilinee considerando una carta (U, yb) ed il cambiamento di coordinate da zb ad yb,
tenendo presente che in questo caso l’intersezione dei domini dei diffeomorfismi zb ed yb è dato da U ∩ E = U,
dove U può essere un sottoinsieme proprio di E. Si ha quindi
¡ 1 n
¢ −1
¡ 1 n
¢
¡z 1 , ..., z n ¢ = zb ◦ yb −1 ¡y 1, ..., y n ¢ , (14.91)
y , ..., y = yb ◦ zb z , ..., z ,
dove zb ◦ yb −1 : yb (U) → zb (U) e yb ◦ zb −1 : zb (U) → yb (U) sono diffeomorfismi. Si consideri ad esempio un sistema
di coordinate cilindriche in uno spazio puntuale euclideo tridimensionale; in questo caso si ha n = 3 e la
precedente equazione (14.91)1 assume la forma
¡ 1 2 3¢ ¡ 1 ¢
z , z , z = y cos y 2 , y 1 sin y 2 , y 3 . (14.92)
Affinché la precedente sia l’espressione di un cambiamento di coordinate, è necessario che le trasformazioni
zb ◦ yb −1 e yb ◦ zb −1 siano C ∞ . La restrizione della funzione zb ◦ yb −1 all’insieme
V := (0, ∞) × [0, 2π) × (−∞, ∞) , (14.93)
è C ∞ ed è biettiva. Inoltre la trasformazione inversa
µq ¶
¡ 1 2 3¢ 2 2 z2
y ,y ,y = (z 1 ) + (z 2 ) , tan−1 1 , z 3 , (14.94)
z
risulta di classe C ∞ in tutto IR3 . Di conseguenza se abbiamo scelto come insieme di definizione del sistema
di coordinate yb un generico sottoinsieme U di IR3 si ha che
yb (U) ⊂ V. (14.95)
Per il sistema di coordinate cilindriche, le linee coordinate y 1 sono ¡ rette ¢ passanti per l’origine, le linee co-
ordinate y 2 sono circonferenze giacenti su piani paralleli al piano z 1 , z 2 e le linee coordinate y 3 sono rette
coincidenti con z 3 . Le superfici y 1 = cost sono cilindri circolari aventi i generatori paralleli all’asse z 3 ; le
2 3 3
¡superfici
1 2
¢ y = cost sono piani contenenti l’asse z mentre le superfici y = cost sono piani paralleli al piano
z ,z .
Un sistema di coordinate sferiche in uno spazio puntuale euclideo tridimensionale è invece caratterizzato
dal cambiamento di coordinate
¡ 1 2 3¢ ¡ 1 ¢
z , z , z = y sin y 2 cos y 3 , y 1 sin y 2 sin y 3 , y 1 cos y 2 , (14.96)
dove y 2 è detta colatitudine ed y 3 è detta longitudine. La restrizione della funzione zb ◦ yb −1 all’insieme
V := (0, ∞) × [0, π) × [0, 2π) , (14.97)
è di classe C ∞ e biettiva, e la trasformazione inversa
⎛ ⎞
¡ 1 2 3¢ q 2 3
2 2 2 z z
y , y , y = ⎝ (z 1 ) + (z 2 ) + (z 3 ) , tan−1 1 , cos−1 q ⎠, (14.98)
z 1 2 2 2 3 2
(z ) + (z ) + (z )
è di classe C ∞ in tutto IR3 . Per questo sistema di coordinate le linee y 1 sono rette passanti per l’origine, le
linee coordinate y 2 sono circonferenze di raggio y 1 giacenti¡su un ¢piano contenente l’asse z 3 dette meridiani e
le linee coordinate y 3 sono circonferenze parallele al piano z 1 , z 2 dette paralleli. ¡Le superfici
¢ y 1 = cost sono
1 2 1 2
superfici sferiche di raggio y ; le superfici y = cost sono piani paralleli al piano z , z mentre le superfici
y 3 = cost sono piani contenenti l’asse z 3 .
14.4. SISTEMI DI COORDINATE E VARIETÀ AFFINI. 151
Le precedenti stabiliscono che le trasformazioni (14.73) sono non singolari in quanto i determinanti delle
matrici Jacobiane ad esse associate sono non nulli:
∙ i ¸ µ ∙ j ¸¶
∂y ¡ 1 n
¢ ∂z ¡ 1 n
¢ −1
det z , ..., z = det y , ..., y 6= 0. (14.101)
∂z j ∂y k
gi := gradb
z i, (14.102)
il gradiente della i−esima funzione coordinata della introdotta carta. Le funzioni gi , i = 1, 2, ..., n, sono
evidentemente campi vettoriali di classe C ∞ in U. Ricordando la definizione (14.82), la (14.102) implica che,
dato x ∈ U, gi (x) è un vettore dello spazio delle traslazioni V normale alla i−esima superficie coordinata
della carta (U, zb) .
Partendo dalla (14.75) definiamo n campi vettoriali g1 , g2 , ..., gn in U come:
¡ ¢ ¡ ¢
xe z 1 , ..., z i + t, ..., z n − x
e z 1 , ..., z n
gi (x) := lim
t→0 τ
∂ex ¡ 1 ¢
= i z , ..., z n , ∀x ∈ U, i = 1, 2, ..., n. (14.103)
∂z
Dalla definizione (14.80) si ha che gi (x) è un vettore di V tangente alla i−esima curva coordinata della carta
(U, zb) . Ricordando che ¡ ¡ 1 ¢¢
z i = zb i x
e z , ..., z n , (14.104)
dalla regola di derivazione della funzione composta, insieme alle (14.102), (14.103) si ottiene
∂z i ∂e
x
j
= δ ij = gradb
z i j = gi · gi . (14.105)
∂z ∂z
Proposizione 209 L’insieme {g1 (x) , g2 (x) , ..., gn (x)} è formato da vettori linearmente indipendenti in V,
per ogni x ∈ U.
la combinazione lineare dei vettori g1 (x) , g2 (x) , ..., gn (x) secondo i coefficienti reali α1 , ..., αn . Considerando
il prodotto scalare con il vettore gi (x) ed utilizzando la (14.105) si ottiene:
αi = 0, i = 1, 2, ..., n, (14.107)
onde l’asserto.
Essendo dim V = n, dalla precedente proposizione discende immediatamente che
La base fisica relativa al sistema di coordinate zb in x è una particolare base anolonoma. Essa è costituita
dai versori
ghii (x) , i = 1, 2, ..., n, (14.110)
diretti come i vettori della base naturale G relativa ad un sistema di coordinate ortogonali. Data dunque una
carta (U, zb) , con zb ortogonale, si ha
−1
ghii (x) = kgi (x)k gi (x) , ∀x ∈ U. (14.111)
Dalla precedente discende la seguente espressione dei vettori della base fisica nei termini della base G 0 :
° °−1
ghii (x) = °gi (x)° gi (x) , ∀x ∈ U. (14.113)
Si noti che a prescindere dalle dimensioni fisiche delle coordinate che generano le basi naturali, i vettori della
relativa base fisica sono adimensionali. Il vantaggio di rappresentare una grandezza tensoriale nella base fisica
risiede dunque nel fatto che tutte le componenti sono dimensionalmente omogenee.
Vogliamo ora determinare la legge di trasformazione per il cambiamento di base naturale associato ad un
cambiamento di coordinate. Siano a tal fine (U1 , zb) e (U2 , yb) due carte tali che E ⊃ U1 ∩ U2 6= ∅, e sia
hi = gradb
y i. (14.114)
ed analogamente ∙ ¸
∂z i ¡ 1 n
¢
hi (x) = y , ..., y gj (x) , ∀x ∈ U1 ∩ U2 , (14.116)
∂y j
le quali forniscono le ricercate leggi di trasformazione.
Data una carta (U, zb) , sono individuati i 2n2 campi scalari
definiti come
gij (x) := gi (x) · gj (x) = gji (x) ,
∀x ∈ U. (14.118)
g ij (x) := gi (x) · gj (x) = g ji (x) ,
Riprendendo le definizioni date nella sezione 12.1 si ha che i campi scalari appena introdotti sono rispettiva-
mente le componenti covarianti e controvarianti del campo tensoriale
1I : E → T2 (V) , (14.119)
di ordine totale 2, il cui valore nel punto x ∈ U è il tensore identico o tensore metrico:
1I=gij gi ⊗ gj = gj ⊗ gj = gj ⊗ gj = g ij gi ⊗ gj . (14.120)
La precedente mostra che in generale le componenti di un campo tensoriale costante non sono in generale
campi scalari costanti. Ciò è risulta vero solo in coordinate cartesiane. Si ha inoltre che dalla (14.100) risulta
£ ¤−1
gij (x) = g ij (x) , ∀x ∈ U, (14.121)
e
gi = g ij gj , gi = gij gj . (14.122)
14.5. LA DERIVATA COVARIANTE. 153
(cfr. la (14.75)). Utilizzando le (14.103), (14.118)1 , la precedente può essere riscritta come
Date poi due carte (U1 , zb) , (U2 , yb) con U1 ∩ U2 6= ∅, nel punto x ∈ U1 ∩ U2 si ha:
La precedente espressione fornisce un utile strumento di calcolo per gkm (x) qualora il sistema di coordinate
zb sia cartesiano. Infatti, considerando ad esempio la trasformazione (14.91)1 si ha
∙ k ¸∙ ¸
∂z ¡ 1 n
¢ ∂z k ¡ 1 n
¢
gij (x) = y , ..., y y , ..., y , (14.127)
∂y i ∂y j
Data una carta (U, zb) , consideriamo le coordinate della curva γ in tale carta:
¡ ¢
zb (γ (t)) = γ 1 (t) , γ 2 (t) , ..., γ n (t) , (14.133)
154 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
cosicché ¡ ¢
e γ 1 (t) , γ 2 (t) , ..., γ n (t) ,
γ (t) = x ∀t : γ (t) ∈ U. (14.134)
Differenziando rispetto a t si ottiene:
¯ ¯
x dγ j ¯¯
∂e dγ j ¯¯
γ̇|x = = gj (x) , (14.135)
∂z j dt ¯t=c dt ¯t=c
avendo utilizzato la (14.103). La precedente è la proiezione della curva γ nella base naturale {gj } associata
alla carta (U, zb) ; essa afferma che le componenti di γ̇ in tale base sono date dalle derivate delle coordinate di
γ in zb. In effetti, si può notare che la (14.103) è un caso particolare della (14.135) quando γ coincide con una
delle curve coordinate.
Si consideri ora una applicazione regolare
f : U →IR, (14.136)
dove U è un aperto dello spazio puntuale affine E. Il suo gradiente nel punto x ∈ U è dato dalla (cfr. la
(14.57)): ¯
d ¯
[gradf (x)] · v = f (x + τ v)¯¯ , ∀v ∈V, (14.137)
dτ τ =0
avendo indicato con V lo spazio delle traslazioni di E. Scelta una carta (U, zb) , diremo rappresentazione
coordinata di f in tale carta la funzione
e : IRn → IR,
f ◦x (14.138)
Essendo ¡ ¢
f (x + τ v) = f z 1 + τ v 1 , ..., z n + τ v n , (14.140)
il secondo membro della (14.137) può riscriversi come
¯
d ¯ ∂f (x) j
f (x + τ v)¯¯ = v , (14.141)
dτ τ =0 ∂z j
T∞
p (U) := {T : x ∈ U 7→T (x) ∈ Tp (V) , ∀x ∈ U} . (14.143)
T + U :U → Tp (V) , (14.145)
definito come
[T + U] (x) = T (x) + U (x) , ∀x ∈ U. (14.146)
∞
Considerata poi la funzione di classe C
f : U →IR, (14.147)
14.5. LA DERIVATA COVARIANTE. 155
Le componenti covarianti del campo tensoriale T :U → Tp (V) rispetto alla carta (U1 , zb) sono gli np campi
scalari
Ti1 ...ip : U1 ∩ U →IR, (14.149)
definiti come ¡ ¢
Ti1 ...ip (x) = [T (x)] gi1 (x) , ..., gip (x) , ∀x ∈ U1 ∩ U, (14.150)
per cui il campo tensoriale T ammette la rappresentazione
Considerando quindi la rappresentazione coordinata di T nella carta (U, zb) , ovvero la funzione
x : IRn → Tp (V) ,
T◦e (14.154)
si ha ¯ ∙ ¸
d ¯ ∂ ¡ 1 ¢ i ∂T (x) i
¯
T (x + τ v)¯ = T◦e
x z , ..., z n
v = v, ∀v ∈ V, (14.155)
dτ τ =0 ∂z i ∂z i
ovvero
∂T (x) i
[gradT (x)] (v) = v, ∀v ∈ V. (14.156)
∂z i
Data l’arbitrarietà di v, è possibile scegliere v = gi (x) , da cui
∂T (x)
[gradT (x)] (gi (x)) = . (14.157)
∂z i
Osservando infine che, in virtù della proposizione 145, gli spazi Tp+1 (V) ed Hom (V, Tp (V)) (V può infatti
riguardarsi come T1 (V)), il gradiente di T nel punto x è equivalentemente il tensore di Tp+1 (V) dato da
∂T (x)
gradT (x) = ⊗ gi (x) , (14.158)
∂z i
dalla quale si evince che gradT ∈T∞ p+1 (U), ovvero che esso è un campo tensoriale di ordine totale p + 1
definito in U.
La rappresentazione di gradT (x) ∈ Tp+1 (V) nella base prodotto di Tp+1 (V)
© ª
gi1 (x) ⊗ · · · ⊗ gip (x) ⊗ gip+1 (x) , i1 , ..., ip+1 = 1, 2, ..., n, (14.159)
gradT (x) = [gradT (x)]i1 ...ip ip+1 gi1 (x) ⊗ · · · ⊗ gip (x) ⊗ gip+1 (x) , (14.160)
la quale, confrontata con la (14.158) fornisce la seguente espressione per le n derivate parziali di T (x) lungo
le curve coordinate di zb :
∂T (x) i ...i
= [gradT (x)] 1 p ip+1 gi1 (x) ⊗ · · · ⊗ gip (x) , ∀ip+1 = 1, 2, ..., n. (14.161)
∂z ip+1
Nelle applicazioni risulta sovente utile, al fine di compiere alcuni calcoli, rappresentare le componenti di
gradT (x) in una data carta nei termini delle componenti di T (x) nella stessa carta. Scelta dunque una carta
(U, zb) si ha
T (x) =T i1 ...ip (x) gi1 (x) ⊗ · · · ⊗ gip (x) , (14.162)
156 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
Introducendo i simboli di Christoffel associati alla carta (U, zb) con la definizione
∂gi k
Γij k := ·g , (14.165)
∂z j
le derivate parziali dei vettori della base naturale covariante possono esprimersi come
∂gi
= Γij k gk . (14.166)
∂z j
Utilizzando la (14.103) si ha
∂2xe
Γij k = · gk = Γji k , (14.167)
∂z ∂z j
i
la quale afferma la simmetria dei simboli di Christoffel rispetto agli indici i e j. Al fine di ottenere una formula
che risulti maneggevole per il calcolo di Γijk , si consideri la derivata parziale delle componenti covarianti del
tensore metrico:
∂gij ∂ ∂gi ∂gj
= k (gi · gj ) = k · gj + k · gi
∂z k ∂z ∂z ∂z
= Γik h gh · gj + Γjk h gh · gi
= Γik h ghj + Γjk h ghi , (14.168)
1
Γ12 1 = Γ21 1 = Γ13 1 = Γ31 1 = ,
y1
Γ22 1 = −y 1 ,
¡ ¢2
Γ33 1 = −y 1 sin y 2 , (14.173)
Γ33 2 = − cos y 2 sin y 2 ,
1
Γ23 3 = Γ32 3 = ,
tan y 2
ed i rimanenti nulli. Si lascia al lettore la verifica del fatto che i simboli di Christoffel relativi ad un sistema
di coordinate cartesiane sono tutti nulli3 .
Ritorniamo ora alla equazione (14.163). Con l’ausilio della (14.166), è possibile esprimere la derivata
dell’iq −esimo (q = 1, 2, ..., p) vettore della base naturale per cui, sostituendo nella (14.163) la stessa diviene
∙ i1 ...ip ¸
∂T (x) ∂T (x) h i2 ...ip i1 i1 ...ip−1 h ip
= + T (x) Γh ip+1 (x) + · · · + T (x) Γh ip+1 (x) gi1 (x) ⊗ · · · ⊗ gip (x) ,
∂z ip+1 ∂z ip+1
(14.174)
ovvero, confrontando con la (14.161) ed introducendo la notazione
∂T i1 ...ip
T i1 ...ip kip+1 = + T h i2 ...ip Γh ip+1 i1 + · · · + T i1 ...ip−1 h Γh ip+1 ip . (14.176)
∂z ip+1
La precedente è l’espressione delle componenti del gradiente di T nei termini delle sue componenti controva-
rianti. Se il sistema di coordinate è cartesiano, la derivata covariante si riduce alla ordinaria derivata parziale,
essendo tutti nulli i simboli di Christoffel.
Si consideri ancora un campo tensoriale T di ordine totale p ≥ 1. La sua divergenza è il campo tensoriale
di ordine totale p − 1 definito come
divT := Cp p+1 (gradT) , (14.177)
dove C denota l’operazione di contrazione semplice come definita in (12.78) (si veda la sezione 11.1 per maggiori
dettagli). La rappresentazione per componenti nella base prodotto di Tp−1 è
una curva regolare. Il vettore tangente γ̇, esaminato nella sezione precedente, è un esempio di campo vettoriale
definito su γ. In generale, dato un campo tensoriale di ordine totale p
il suo valore T (t) in t ∈ (a, b) è un tensore di Tp (V) nel punto γ (t) . Possiamo quindi definire il suo gradiente
o derivata covariante lungo γ come
Come esempio illustrativo, si consideri il gradiente di un campo vettoriale v lungo una curva γ :
∙ i ¸
dv (t) dv (t) dγ k (t)
= + v j (t) Γjk i gi , (14.189)
dt dt dt
Si tenga presente la differenza che intercorre tra la derivata covariante delle componenti:
dT i1 ...ip (t)
, (14.191)
dt
e le componenti della derivata covariante:
µ ¶i1 ...ip
dT (t)
. (14.192)
dt
14.7. LE FORMULE DI FRENET. 159
la sua restrizione alla curva γ : (a, b) → U. Eseguendo il gradiente lungo la curva γ attraverso la (14.188) e
tenendo conto della (14.174) si ottiene
dT (γ (t))
= [gradT (γ (t))] (γ̇ (t)) , (14.194)
dt
essendo il gradiente un elemento di Hom (V, Tp (V)) . Alla precedente, utilizzando la (14.158) è possibile dare
la forma equivalente ma più esplicita:
v : x ∈ E → v (x) ∈ V, (14.196)
γ : IR 3 s 7→ γ (s) ∈ E, (14.198)
tale che
dγ
= t (γ (s)) , (14.199)
ds
dove s, detto ascissa curvilinea, è un parametro reale tale che
° °
° dγ °
° ° = 1. (14.200)
° ds °
In base alla definizione, il vettore t è tangente alla curva γ, da cui il nome di tangente di γ.
Escludendo il caso in cui γ sia una retta, si consideri la derivata covariante di t lungo γ (cfr. la sezione
precedente): ° °
dt ° dt °
= κn, κ := ° °
° ds ° . (14.201)
ds
Il modulo κ di tale derivata è detto curvatura della curva γ, ed il versore n è la sua normale principale.
È ovviamente κ > 0. Il reciproco di κ
1
ρ= , (14.202)
κ
è il raggio di curvatura della curva γ. Differenziando il prodotto scalare (t · t) e tenendo conto del fatto che t
stesso è un versore si ha
d dt
0= (t · t) = 2t · = 2κt · n = 0 =⇒ t · n = 0, (14.203)
ds ds
la quale afferma che il gradiente del versore n è ortogonale a t rispetto al prodotto scalare definito in V. Poiché
t ed n sono entrambi versori, il loro prodotto vettore
b = t ∧ n, (14.204)
è un vettore di modulo unitario, detto binormale di γ. La terna ortonormale (t (s) , n (s) , b (s)) formata da
tangente, normale e binormale della curva γ nel punto γ (s) prende il nome di triedro principale associato a
γ in γ (s) . La terna (t, n, b) può anche riguardarsi come un campo di basi ortonormali anolonome nel dominio
del campo v.
160 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
si ha
db
= −τ n. (14.208)
ds
Considerando infine che, dalla (14.204) e dalle proprietà cicliche del prodotto vettore, la normale può esprimersi
come
n = b ∧ t, (14.209)
discende che la derivata covariante di n lungo γ è data da
dn db dt
= ∧t+b∧ = −τ n ∧ t + b ∧ κn = τ b − κt. (14.210)
ds ds ds
I risultati (14.201), (14.208) e (14.210), qui di seguito riassunti:
dt
= κn,
ds
dn
= τ b − κt, (14.211)
ds
db
= −τ n,
ds
dove Σx è una funzione regolare non nulla dotata di gradiente non nullo in S ∩ N x . La precedente caratterizza
localmente la superficie S nel senso che la funzione Σ, dato x, è definita nell’aperto Nx che in generale varia
con il punto. Diremo normale unitaria della superficie S il campo vettoriale
n : S ∩ N x →V, (14.213)
definito da
gradΣ
n := . (14.214)
kgradΣk
14.8. ELEMENTI DI GEOMETRIA GAUSSIANA. 161
La rappresentazione (14.212) non è unica: infatti essa è soddisfatta anche da −Σ con il campo delle normali
−n. Diremo che la superficie S è orientabile se il dominio della funzione Σ coincide con S, per cui la
superficie stessa può essere caratterizzata globalmente come
Nel caso in cui S sia orientabile, è possibile assegnare ad essa una orientazione scegliendo un campo delle
normali n il quale viene designato come normale positiva per S. Nel seguito ci riferiremo a superfici
orientate.
Siano
1 2
b
ξ : x 7→ ξ 1 , b
ξ : x 7→ ξ 2 , (14.216)
due funzioni scalari tali che ¡ ¢
b
ξ (x) := ξ 1 , ξ 2 , Σ (x) , (14.217)
sia un sistema di coordinate locali in E (cfr. la (14.74)). La superficie S può essere localmente caratterizzata
come
x=x e (ξ α ) , (14.218)
−1
essendo xe il diffeomorfismo inverso bξ (si veda la (14.75)). Le introdotte ξ α sono dette coordinate gaus-
siane della superficie S. Poiché le curve coordinate di ξ α appartengono alla superficie S, i vettori della base
naturale
∂e
x
sα = α , (14.219)
∂ξ
sono tangenti ad S. Diremo piano tangente alla superficie S nel punto x la giacitura definita da
dove “∧” è il prodotto vettore definito dagli assiomi (13.10), (13.12), (13.13), (13.11). Introducendo i versori
sα
tα := , α non sommato, (14.222)
ksα k
n = t1 ∧ t2 . (14.223)
Dalla definizione (14.221) si ha che la terna (s1 , s2 , n) è una base positiva di E, ed essendo
sα · n = 0, (14.224)
¡ 1 2 ¢
ne discende che anche la sua reciproca s , s , n gode della stessa proprietà. Avendo, dalla definizione di
base reciproca
sα · sβ = δ βα , (14.225)
¡ 1 2¢ ¡ 1 2¢
le (s1 , s2 ) , s , s sono dette basi naturali¡reciproche ¢ del sistema di coordinate superficiali ξ , ξ su S.
Introducendo il sistema di coordinate locali z 1 , z 2 , z 3 in E, possiamo rappresentare la superficie S come
x (ξ α )) =: z i (ξ α ) ,
z i = zbi (x) = zbi (e (14.226)
ed ottenere di conseguenza il seguente legame tra i vettori sα della base naturale superficiale ed i vettori gi
della base naturale associata a z i :
∂z i ∂ex ∂z i
z i α = gi · sα =⇒ sα = α gi .
α = gradb (14.227)
∂ξ ∂ξ ∂ξ
(che assumiamo non degenere e definito positivo, cfr. le (7.46), (7.48), (7.49)) induce in Tx un prodotto scalare
non degenere definito positivo relativo alle coordinate gaussiane ξ α . Siano u, v ∈ Tx ; si ha
∂z i ∂z j ∂z i ∂z j
aαβ := sα · sβ = α β
gi · gj = α β gij , (14.229)
∂y ∂y ∂y ∂y
4
ovvero della matrice associata al prodotto scalare
£ . Tale
¤ matrice è evidentemente simmetrica e definita positiva
(cfr. Capitolo 7), ed esiste pertanto la inversa aαβ :
data da
aβγ = sβ · sγ . (14.231)
Utilizzando la precedente uguaglianza insieme alla (14.227) siamo quindi in grado di trovare la seguente
rappresentazione per i vettori della base naturale controvariante della superficie:
∂z i
sβ = aβγ gi . (14.232)
∂y γ
Si consideri ora un campo vettoriale definito su S:
v : x ∈ S 7→ v (x) ∈ V. (14.233)
¡ ¢
Per ogni x ∈ S, v ammette le rappresentazioni uniche nelle basi reciproche di V (s1 , s2 , n) ed s1 , s2 , n :
v = v α sα + v 3 n, v = vα sα + v3 n,
(14.234)
v α = v · sα , vα = v · sα , v 3 = v3 = v · n.
I campi vettoriali
vS := v α sα = vα sα ,
(14.235)
vn := v3 n,
sono detti rispettivamente proiezione tangenziale e proiezione normale di v. Introducendo ¡ ¢ la rappre-
sentazione del tensore metrico di E nelle basi prodotto generate dalle basi (s1 , s2 , n) ed s1 , s2 , n :
1I =
= aαβ sα ⊗ sβ + n ⊗ n
= aαβ sα ⊗ sβ + n ⊗ n (14.236)
= sα ⊗ sα + n ⊗ n
= sα ⊗ sα + n ⊗ n,
Il campo tensoriale appena introdotto si comporta come l’identità tensoriale di Tx , lasciando invariati i vettori
del piano tangente alla superficie S nel punto x, mentre, quando applicato ai vettori di V, esso proietta gli
stessi in Tx , fornendo la loro componente superficiale:
£S ¤
1I (x) (v (x)) = v (x) − (v (x) · n (x)) n (x) = vS (x) , ∀v (x) ∈ V. (14.238)
Il tensore metrico superficiale è noto in geometria differenziale come prima forma fondamentale della
superficie S.
4 Si noti che utilizzando i coefficienti della metrica i versori tangenti superficiali possono scriversi come
sα
tα = √ , α non sommato.
aαα
14.8. ELEMENTI DI GEOMETRIA GAUSSIANA. 163
definita da
S
gradT := T α1 ...αp kαp+1 sα1 ⊗ · · · ⊗ sαp ⊗ sαp+1 , (14.241)
dove
∂T α1 ...αp
T α1 ...αp kαp+1 = + T β α2 ...αp Γβ αp+1 α1 + · · · + T α1 ...αp−1 β Γβ αp+1 αp , (14.242)
∂ξ αp+1
è la derivata covariante superficiale, e
µ ¶
1 γµ ∂aαµ ∂aβµ ∂aαβ
Γαβ γ = a + α − = Γβα γ , (14.243)
2 ∂ξ β ∂ξ ∂ξ µ
sono i simboli di Christoffel della superficie. Poiché, come ampiamente discusso in [7], le derivate parziali dei
vettori della base naturale superficiale
∂sα
, (14.244)
∂ξ β
non sono in generali campi vettoriali, tangenti, non è possibile ottenere per essi una formula di rappresen-
tazione nei termini dei simboli di Christoffel superficiali che sia analoga alla (14.166). È tuttavia possibile
eseguire tali derivate utilizzando ancora la (14.166) con i vettori della base naturale (s1 , s2 , n) .
La definizione di divergenza superficiale del campo tensoriale T di ordine totale p ≥ 1 si ottiene
immediatamente estendendo la (14.177):
S
¡ ¢
divT := Cp p+1 S gradT , (14.245)
Sia dunque
γ : (a, b) → S, (14.249)
una curva di S. Poiché n è un campo vettoriale unitario, dalla (14.188) si ottiene, lungo γ
d dn dn
0= (n · n) = 2n · =⇒ n · = 0, (14.250)
dt dt dt
per cui il gradiente dn/dt è un campo vettoriale tangente. Possiamo quindi enunciare la seguente
Proposizione 210 Esiste un campo tensoriale tangenziale simmetrico di ordine totale 2
B : x 7→ B (x) ∈ T2 (Tx ) , Tx = span {s1 , s2 } , (14.251)
tale che
dn
= −B (γ̇) , (14.252)
dt
per ogni curva γ su S.
Dimostrazione L’esistenza del campo B discende immediatamente dalla (14.194) quando in essa si
identifichi T con n:
dn (γ (t))
= [gradn (γ (t))] (γ̇ (t)) , (14.253)
dt
per cui ¡ ¢
B (γ (t)) := −gradn (γ (t)) ∈ Hom T1 , T1 , (14.254)
il quale, in virtù della proposizione 145 risulta essere un tensore di T2 .
Il fatto che B sia tangente è conseguenza della (14.250).
Per provare la simmetria, si tenga presente che dalla (14.214), n risulta parallelo al gradiente di un certo
campo scalare Σ. Definendo
Σ (x)
σ (x) := , ∀x ∈ S, (14.255)
kgradΣ (x)k
si ha
n (x) = gradσ (x) , ∀x ∈ S, (14.256)
ovvero, dalla (14.252)
B = −grad (gradσ) , (14.257)
onde la simmetria.
Come risulta evidente dalla (14.252), il tensore B caratterizza la curvatura della superficie S in quanto esso
misura la variazione della normale n alla superficie. Il tensore B è noto come seconda forma fondamentale
della superficie S o tensore di Gauss-Weingarten ad esso associato. Considerato un sistema di coordinate
gaussiane ξ α per S, si ha
B = bαβ sα ⊗ sβ = bα β sα ⊗ sβ = bαβ sα ⊗ sβ , (14.258)
nella base prodotto superficiale generata da tale sistema di coordinate, con le componenti che, per la (14.252)
sono date dalle seguenti:
∂n
= −bαβ sβ = − bα β sβ , (14.259)
∂ξ α
o equivalentemente, dalle (14.222):
∂n bαβ β √
= −√ t = −bαβ aββ tβ , (14.260)
∂ξ α aββ
Le precedenti permettono il calcolo delle componenti della seconda forma fondamentale a partire dalla normale
e dalla legge ¡ ¢
x=x e ξ1, ξ2 , (14.263)
che descrive la superficie. Illustriamo il suo utilizzo calcolando le componenti della seconda forma fondamentale
per le superfici cilindriche.
• Per le superfici cilindriche si ha che il generico punto x sulla superficie stessa è dato, riferendo E ad un
sistema di coordinate cartesiane ortogonali z i :
⎧ 1 1
⎨ z = R cos ξ
z 2 = R sin ξ , ξ 1 ∈ [0, π) , ξ 2 ∈ [−H, H] .
1
(14.264)
⎩ 3 2
z =ξ
Per eseguire i calcoli, risulta conveniente scegliere una origine o ∈ E una volta per tutte, in modo tale che
x possa essere rappresentato dal vettore (x − o) dello spazio delle traslazioni il quale, detta (e1 , e2 , e3 )
la base naturale associata al sistema di coordinate cartesiane z i si rappresenta come
∂x
s1 = = −R sin ξ 1 e1 + R cos ξ 1 e2 ,
∂ξ 1
(14.266)
∂x
s2 = 2 = e3 ,
∂ξ
per cui il sistema di coordinate superficiali risulta ortogonale. La normale alla superficie è, in virtù della
(14.221):
n = cos ξ 1 e1 + sin ξ 1 e2 , (14.268)
e le derivate dei vettori tangenti superficiali sono
∂s1 ∂2x 1 1
1 = ¡ ¢ = −R cos ξ e1 − R sin ξ e2 ,
1 2
∂ξ ∂ξ
∂s1 ∂s2 ∂2x
= = = 0, (14.269)
∂ξ 2 ∂ξ 1 ∂ξ 1 ∂ξ 2
∂s2
= 0,
∂ξ 2
Poiché B è simmetrico, per ogni x ∈ S esiste una base ortonormale (b1 (x) , b2 (x)) costituita dai suoi
autovettori; in tale base B ammette la rappresentazione spettrale (cfr. la sezione 13.8)
dove gli autovalori κ1 (x) e κ2 (x) sono le curvature principali o curvature normali della superficie S
nel punto x. In generale non è detto che (b1 , b2 ) sia la base naturale associata ad un sistema di coordinate
gaussiane. Un sistema di coordinate rispetto al quale la matrice associata al tensore di Gauss-Weingarten
è diagonale è detto sistema di coordinate principali, e le relative curve coordinate sono dette linee di
166 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
curvatura. Relativamente ad un sistema di coordinate principali le componenti della prima e seconda forma
fondamentale soddisfano ovviamente le condizioni
a12 = 0, b12 = 0, (14.272)
e si ha inoltre
√ √
s1 = a11 b1 , s2 = a22 b2 . (14.273)
Si noti che il sistema di coordinate cilindriche precedentemente esaminato è principale, e che le curvature
principali sono date da
1 1
κ1 = b11 = = − , κ2 = 0. (14.274)
b11 R
I due invarianti principali di B dati da
Tr B =S 1I · B = aαβ bαβ = κ1 + κ2 ,
(14.275)
det B = det [ bβ α ] = κ1 κ2 =:K,
sono detti rispettivamente curvatura media e curvatura Gaussiana della superficie S. Per la superficie
cilindrica si ha
1
κ1 + κ2 = − , K = 0. (14.276)
R
dove sβ sono i vettori tangenti alle linee coordinate ξ β che risultano paralleli ai corrispondenti vettori tangenti
sulla superficie media, e
B = −gradn (14.285)
è il tensore di Gauss-Weingarten (cfr. la 14.254). È evidente che la eventuale ortogonalità dei vettori (s1 , s2 )
non assicura in generale la ortogonalità dei vettori della base naturale controvariante (g1 , g2 , n) ; affinché
questi siano ortogonali occorre infatti che lo siano s1 ed s2 e che il tensore di Gauss-Weingarten sia diagonale,
ovvero che il sistema di coordinate gaussiane sia principale. Nota la base covariante, sono individuate le
componenti covarianti gij del tensore metrico, per cui, attraverso la (14.122) è possibile calcolare i vettori
della base naturale controvariante.
Al fine di legare le basi naturali nel punto X = X e (ξ α , ζ) ∈ Gε con le basi naturali della superficie media nel
punto x = X e (ξ α , 0) ∈ S si introducono due campi tensoriali di ordine totale 2, detti shifters. In particolare,
lo shifter
M (ξ α , ζ) := gα (ξ α , ζ) ⊗ sα (ξ α ) + n (ξ α ) ⊗ n (ξ α ) , (14.286)
trasforma i vettori della base covariante (s1 (x) , s2 (x) , n (x)) nel punto x ∈ S nei vettori della base covariante
nel corrispondente punto X ∈ Gε , mentre lo shifter
N (ξ α , ζ) := gα (ξ α , ζ) ⊗ sα (ξ α ) + n (ξ α ) ⊗ n (ξ α ) , (14.287)
¡ ¢
trasforma i vettori della base controvariante s1 (x) , s2 (x) , n (x) in x nei vettori della base covariante in X.
M−1 = NT . (14.288)
NT = sα ⊗ gα + n ⊗ n, (14.289)
sα · n = sα · n = gα · n = gα · n = 0, (14.290)
si ha
¡ ¢
MNT = (gα ⊗ sα ) sβ ⊗ gβ + (n ⊗ n) (n ⊗ n)
= gα ⊗ gα + n ⊗ n = 1I, (14.291)
N−1 = MT . (14.293)
In modo del tutto analogo a campi vettoriali e tensoriali definiti in D corrispondono campi vettoriali e tensoriali
definiti in D. Anche se i campi definiti in D dipendono dalla scelta dell’origine o, l’effetto di un cambiamento
della stessa corrisponde ad incrementare il campo dei vettori posizione di una quantità costante:
r (x) = x − o;
x − o = (x − o) + (o − o) = r (x) + (o − o) . (14.296)
Nel seguito denoteremo quindi con f (x) il valore del campo f nel punto x ∈ D avente vettore posizione x ∈ D
¡ 1 2 sia
quando ¢ stata scelta una origine o. Considereremo inoltre sistemi di coordinate cartesiane rettangolari
x , x , x3 ; i campi definiti in D (e le loro componenti se si tratta di campi vettoriali o tensoriali) possono
dunque riguardarsi come funzioni delle introdotte coordinate cartesiane. Nella presente sezione intenderemo
inoltre per campo tensoriale una applicazione
Specializziamo ora la definizione di gradiente data nella sezione 14.3. Sia f un campo scalare definito in
un dominio D. Tale campo è differenziabile in x ∈ D se esiste una applicazione lineare Lf,x ∈ Hom (V, IR)
tale che ¯ ¯
¯ f (x + τ a) − f (x) ¯¯
lim ¯¯Lf,x (a) − ¯ = 0, ∀x ∈D, a ∈V. (14.298)
τ →0 τ
Quando f è differenziabile è possibile introdurre l’unico (cfr. proposizione 206) campo vettoriale
definito da
[gradf (x)]T (a) := grad [f · a] (x) , ∀x ∈D, a ∈V. (14.302)
La divergenza ed il rotore di f sono rispettivamente il campo scalare ed il campo vettoriale
definiti da
dove “∧” è il prodotto vettore definito in V nel senso specificato dalle (13.10), (13.12), (13.13), (13.13) e “Tr”
è l’operatore traccia (cfr. (11.19)). Si noti la consistenza della definizione di divergenza data in (14.304) con
quella data nella (14.177).
Sia ora F :D →Hom (V, V) un campo tensoriale differenziabile. La sua divergenza è il campo vettoriale
definito da
£ ¤
divF (x) · a :=div FT (a) (x) , ∀x ∈D, a ∈V. (14.307)
rispettivamente un campo scalare, vettoriale e tensoriale differenziabili. Scelta una origine¡ o ∈ D e ¢la base
naturale B = (e1 , e2 , e3 ) relativa all’introdotto sistema di coordinate cartesiane rettangolari7 x1 , x2 , x3 si ha8
∂f (x)
gradf (x) = ej , (14.309)
∂xj
i
∂f (x) ∂fj (x) i ∂f k (x)
gradf (x) = (ei ⊗ ej ) , divf (x) = , rotf (x) = ε jk ei , (14.310)
∂xj ∂xj ∂xj
∂ F i j (x)
divF (x) = ei , (14.311)
∂xj
¡ ¢
dove f j (x) = f (x) · ej ed F ij (x) = ei · [F (x)] ej sono le componenti dei campi f ed F nella base B.
Dimostrazione Essendo f differenziabile per ipotesi, dalla (14.298) con i vettori della base B al posto di
a segue che esistono in D le derivate parziali ∂f (x) /∂xi e si ha inoltre Lif,x = ∂f (x) /∂xi . Dalla (14.300)
discende dunque la (14.309).
Analogamente, l’ipotesi di differenziabilità per f ed F assicura l’esistenza in D delle derivate parziali
∂f i (x) /∂xj e ∂F ij (x) /∂xj . Dato a ∈V, dalla definizione (14.302) e dalla (14.309) si ha (tenendo presente la
(13.6) e la proposizione 159)
T £ ¤
[gradf (x)] (a) = grad f i ei · a (x)
£ ¤
∂ (ei ·a) f i (x) ∂f i (x)
= ej = (ei ·a) ej
∂xj ∂xj
∙ i ¸T
∂f (x)
= (ei ⊗ ej ) (a) , (14.312)
∂xj
∂f i (x)
divf (x) = Tr [gradf (x)] = Tr (ei ⊗ ej )
∂xj
∂f i (x) ∂f i (x) ∂fj (x)
= j
(ei · ej ) = δ ij = , (14.313)
∂x ∂xj ∂xj
ovvero la (14.310)2 . Considerando infine la definizione (14.305) combinata con la (14.310)2 e la (13.20) si
ottiene
£ ¤
rotf (x) · a=div [f ∧ a] (x) = div f i ei ∧ aj ej (x)
£ ¤ ∂f i (x) j
= div εij k f i aj ek (x) = εijh a
∂xh
i i
∂f (x) j ∂f (x)
= εijh h
e · a = εj hi ej · a, (14.314)
∂x ∂xh
ovvero la (14.310)3 .
La dimostrazione della (14.311) si esegue considerando la definizione (14.307) insieme alla (14.310)2 :
£ ¤ £ ¤ ∂Fji (x) j
divF (x) · a=div FT (a) (x) = div Fj i aj ei (x) = a
∂xi
∂Fji (x) j ∂Fji (x) jk ∂ F k i (x)
= i
e ·a= i
δ ek · a = ek · a. (14.315)
∂x ∂x ∂xi
Sono immediata conseguenza delle proprietà stabilite nella proposizione precedente le seguenti:
Dimostrazione La dimostrazione procederà per assurdo supponendo che la tesi sia falsa. Esisterebbe
dunque un punto y ∈ D avente vettore posizione y ∈ D, quando sia stata scelta una origine o, tale che
f (y) 6= 0. Sia f (y) = 2κ, e si assuma κ > 0. Poiché D è un aperto, y deve essere necessariamente un punto
interno; esiste dunque almeno una sfera aperta di raggio δ > 0 centrata in y, Bδ (y) , i cui punti appartengono
tutti a D (tale sfera è evidentemente il sottoinsieme di D costituito dai punti la cui distanza da y è minore di
δ). La continuità di f in y implica l’esistenza di un reale 0 < δ 0 < δ tale che
La sfera Bδ0 (y) è una regione contenuta in D; considerato un punto x ∈ Bδ0 (y) , la precedente equazione
implica che
−κ < f (x) −f (y) < κ ⇒ f (x) > f (y) − κ = κ, (14.322)
da cui Z Z
4 03
f dV > κ dV = πδ κ > 0, (14.323)
Bδ0 (y) Bδ0 (y) 3
il che è un assurdo contraddicendo l’ipotesi. Si deduce quindi che f non può essere positivo in nessun punto
di D. Analogamente, assumendo che κ < 0 si evince che f non può essere negativo in D, il che implica in
definitiva la tesi.
Dal momento che ci limitiamo a considerare campi vettoriali e tensoriali in uno spazio puntuale euclideo, è
semplice definire integrali di volume, superficie e di linea di campi vettoriali e tensoriali definiti rispettivamente
in volumi superfici e curve semplicemente introducendo la loro rappresentazione in un sistema di coordinate
cartesiane rettangolari ed integrando ciascuno dei campi scalari ottenuti.
Una operazione fondamentale nella derivazione delle equazioni di campo è la trasformazione di un integrale
definito sulla frontiera ∂R di una regione R in un integrale definito su R stessa. Lo strumento fondamentale
per eseguire tale operazione è il teorema della divergenza, del quale si fornisce di seguito l’enunciato
rimandando ai corsi e ai testi di analisi matematica la dimostrazione.
Proposizione 214 Considerata una regione R regolare9 di E e la sua frontiera ∂R, sia f un campo vettoriale
di classe C 1 nell’interno di R e di classe C 0 su ∂R e sia n il campo delle normali unitarie sulla frontiera
∂R. Allora Z Z
f · ndA = divf dV. (14.324)
∂R R
La proposizione precedente si presta a generalizzazioni che riguardano campi tensoriali. A tal proposito è
utile dimostrare la seguente:
Proposizione 215 Si considerino un campo tensoriale F ed un campo vettoriale g entrambi di classe C 1 nel-
l’interno di R e di classe C 0 su ∂R, e siano a, b due campi vettoriali costanti. Nelle ipotesi della proposizione
precedente si ha Z Z
£ ¡ T ¢¤ £ ¤
g⊗ F (n) dA = gradgF + g⊗divFT dV. (14.325)
∂R R
9 Intendiamo per regolare una regione la cui frontiera ∂R sia l’unione di un numero finito di superfici su ciascuna delle quali
è definito un campo continuo di vettori normali.
14.10. TEOREMI DI INTEGRAZIONE SULLE VARIETÀ EUCLIDEE TRIDIMENSIONALI. 171
Dimostrazione La prima si ottiene dalla (14.324) quando F è posto pari alla identità di Hom (V, V) ,
mentre la seconda si ottiene ancora dalla (14.324) riguardando g come un campo vettoriale costante. La terza
si ottiene considerando la seguente catena di uguaglianze:
Z Z Z
rotg · adV = div (g ∧ a) dV = (g ∧ a) · ndA
R
Z R ∂R
dove sono state utilizzate le (14.305) e la (14.324) ed è stato introdotto il campo vettoriale costante a.
Proposizione 217 Sia f un campo vettoriale di classe C 1 nell’interno di R e di classe C 0 su ∂R e sia n il
campo delle normali unitarie sulla frontiera ∂R. Allora il campo tensoriale antisimmetrico (cfr sezione 13.9)
gradf −gradf T ha come vettore assiale rotf .
Dimostrazione Dalla (14.330) si ha che, dato i campi vettoriali costanti a, b :
Z Z
£ T
¤
b· gradg−gradg (a) dV = b· [g ⊗ n − n ⊗ g] (a) dA
R
Z Z ∂R
= b· [(n ∧ g) ∧a] dA = n· [g ∧ (a ∧ b)] dA (14.334)
∂R ∂R
Z Z Z
= div [g ∧ (a ∧ b)] dV = rotg· (a ∧ b) dV = b·rotg ∧ adV,
R R R
avendo fatto uso delle (14.330), delle proprietà del prodotto vettore e della (14.333). Dalla proposizione
213 discende £ ¤
b· gradg−gradgT (a) = b·rotg ∧ a, ∀a, b ∈ V, (14.335)
onde l’asserto data l’arbitrarietà di a e b.
Come ultimo strumento per la derivazione delle equazioni di campo nella meccanica del continuo consi-
deriamo il teorema di Stokes, il quale ci permette di trasformare gli integrali definiti su una linea chiusa in
integrali definiti su una superficie avente tale linea come bordo.
172 CAPITOLO 14. CENNI DI ANALISI TENSORIALE
Proposizione 218 Sia Σ una superficie regolare avente come bordo una curva chiusa Γ regolare entrambe di
classe C 1 . Sia poi f un campo vettoriale di classe C 1 in un dominio contenente Σ. Allora
I Z
f ·dx = rotf · ndA, (14.336)
Γ Σ
quando il verso di Γ sia concorde rispetto al campo n dei vettori normali unitari alla superficie Σ, ovvero
quando si abbia che dati x, y ∈ Γ, con y successivo ad x nel verso specificato per Γ e z ∈ Σ, z ∈
/Γ:
Quanto esposto in questo capitolo mi è stato insegnato dal Prof. Luigi De Luca, primo motore dei miei studi
scientifici e mio carissimo zio.
15.1 Introduzione.
La seconda parte di questo testo è un supporto didattico ad un corso di Scienza delle Costruzioni e di Meccanica
dei Solidi per allievi ingegneri. Ci si può legittimamente chiedere il perché di un capitolo che sembra trattare
piuttosto di questioni di Filosofia della Scienza. Una iniziale giustificazione di questa scelta può essere trovata
invocando il principio di autorità.
Il corso di Scienza delle Costruzioni, nell’impostazione e nei contenuti, è stato elaborato da molte ge-
nerazioni di docenti e scienziati. Ebbene in tutti i corsi -anche i peggiori sia dal punto di vista scientifico-
tecnologico (per quanto riguarda la scelta degli argomenti trattati) sia didattico (relativamente a come i
predetti contenuti sono esposti)- si tenta di fondare la disciplina a partire da una rigorosa analisi dei suoi
principi scientifici. Bisogna ammettere che, purtroppo, talvolta questo tentativo è perseguito soltanto per
mezzo di un artificio: cioè utilizzando un linguaggio esoterico1 .
D’altra parte la Scienza delle Costruzioni, che in francese è chiamata Resistance des Materiaux ed in
Inglese Strenght of Materials, ha avuto come fondatori Galileo, Eulero, almeno due membri della famiglia
Bernoulli, Navier, Cauchy, Saint-Venant, Maxwell, Beltrami. Essa è stata riconosciuta, fin dalla istituzione
dell’Ecole Polytechnique, una materia di base nella scuola di applicazione per ingegneri perché non tratta
direttamente delle regole tecniche del progettare in sicurezza ed efficienza una struttura. (Tali regole sono
importantissime, e la loro valenza scientifica, culturale e formativa non deve assolutamente essere messa in
discussione: esse sono oggetto dei corsi successivi, come per esempio quello di Tecnica delle Costruzioni,
Geotecnica, Costruzioni Idrauliche, Costruzioni Aeronautiche, Robotica ecc.)
La Scienza delle Costruzioni ha piuttosto come finalità il portare l’allievo ingegnere alla conoscenza di al-
cuni modelli matematici di una enorme mole di fenomeni (quelli che occorrono quando un qualsiasi materiale
o struttura si deformano) la cui descrizione è essenziale per progettare, controllare e prevedere il comporta-
mento di una infinità di apparati, tecnologie ed artefatti ingegneristici. Tuttavia non è disciplina di base, per
l’ingegneria, come le matematiche, la fisica o la chimica: infatti nella modellazione dei fenomeni meccanici che
sono alla base del comportamento delle strutture deve essere incessante il riferimento alle ipotesi semplifica-
trici necessarie per ottenere modelli matematicamente trattabili e contemporaneamente capaci di descrivere
fenomeni non banali e di interesse nelle applicazioni. Quindi la sua trattazione non può e non deve essere né
puramente logico-deduttiva, ché altrimenti si confonderebbe la Scienza delle Costruzioni con una parte delle
matematiche che essa utilizza, né generale e fondamentale come accade nei corsi di fisica o chimica: l’am-
bito della modellazione deve essere ristretto ad una particolare classe di fenomeni meccanici tenendo sempre
chiaramente in vista l’utilizzo nella pratica ingegneristica dei modelli introdotti.
Questa dichiarata autolimitazione dell’ambito dei suoi interessi non deve essere però fraintesa: recente-
mente i modelli tradizionalmente sviluppati nell’ambito della Scienza delle Costruzioni hanno dimostrata la
loro attualità e modernità, giocando un ruolo cruciale nello sviluppo di nuove ed importanti tecnologie. Si pen-
si, ad esempio, ai fenomeni in biomeccanica, piezoelettricità, magnetostrizione, ferromagnetismo che si stanno
1 Ovviamente il linguaggio esoterico più facilmente disponibile per impressionare il profano è quello fornito dalla matematica,
e l’effetto voluto è tanto più facilmente ottenuto quanto più moderno è il formalismo utilizzato e quindi quanto più ristretto il
numero dei lettori che ne abbiano una ragionevole padronanza. Si noti tuttavia che è stato sviluppato un linguaggio da iniziati
proprio dei cultori della Scienza delle Costruzioni e della Meccanica delle Strutture, linguaggio che è utilizzato talvolta solo per
rivendicare la loro particolarità di tecnologi astratti.
173
174 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI
rivelando così importanti in molti campi dell’ingegneria ambientale, biomedica, aerospaziale, elettronica e
delle telecomunicazioni.
La visione precedentemente esposta è unanimemente condivisa da tutti quelli che in passato hanno af-
frontato il problema di scegliere gli argomenti per il corso e di scrivere un testo per i propri studenti: sebbene
concepiti molti decenni fa, a mio avviso, sono molto suggestivi i testi di Colonnetti [12] o di Baldacci [3].
Molto istruttivo, anche per chi ritenga di conoscere già la materia, è il testo, più moderno, usato all’Ecole
Polytechnique da J.Salençon [36].
Ma il principio di autorità non deve essere il solo a motivare la scelta di parlare di Teoria dei Modelli
nel presente contesto. In ogni corso di Scienza delle Costruzioni si espongono i fondamenti della teoria della
trave e di quella dei corpi deformabili. Oggetto di queste teorie sono il comportamento meccanico di strutture
sottoposte a carichi esterni e vincolate. Ora uno stesso blocco di materiale (snello) soggetto ad un dato sistema
di carichi viene mo in letteratura in modi molto diversi:
1. utilizzando il modello di trave di Eulero-Bernoulli, la cinematica del blocco è descritta per mezzo della
sua curva d’asse e la sua resistenza da una o al più due rigidezze (flessionale ed estensionale);
2. utilizzando il modello di Timoshenko, tale cinematica è ulteriormente precisata introducendo il campo
delle rotazioni delle sue sezioni trasversali alla curva d’asse cosicchè almeno una rigidezza al taglio deve
essere aggiunta;
3. utilizzando l’approccio alla Cauchy (anche limitandosi al caso di piccole deformazioni) la cinematica dello
stesso blocco è di molto complicata, essendo caratterizzata da un campo di spostamenti definito su di
una forma tridimensionale del corpo, detta forma di riferimento, mentre per descrivere la deformabilità
sono necessarie in generale ventuno rigidezze;
4. utilizzando una teoria atomica (si ricorderà che in un primo tentativo dovuto a Navier questo era
proprio l’approccio utilizzato) la cinematica è quella di molte moli (nel senso di Avogadro) di particelle
materiali collegate fra loro (di qui una dettagliatissima descrizione delle modalità di deformazione del
corpo considerato) da forze centrali di tipo elastico.
Si noti che una analisi empirista della serie presentata di descrizioni dello stesso oggetto fisico porterebbe
a concludere che ciascuna di tali descrizioni è più vera di quella precedente; tra l’altro tale analisi avrebbe
difficoltà a giustificare il fatto che l’ordine di elencazione scelto non è cronologico. Ancora più difficile, in questa
ottica, sarebbe giustificare il perchè non si proponga l’utilizzo di una qualche Teoria Quanto-Relativistica che
utilizzi quarks o qualche altro costituente elementare della materia. Ovviamente questa regressione verso
l’infinitamente dettagliato, dettata dal tentativo di identificare la vera natura dei sistemi meccanici studiati, è
fondamentalmente inutile perché rende impossibile lo studio del comportamento di semplici strutture utilizzate
in tante applicazioni, non solo ingegneristiche.
L’atteggiamento più appropriato da assumere è proprio quello proposto nell’ambito della teoria dei modelli
(una elegante trattazione della quale si può trovare, per esempio, nel saggio di R. Aris [1]): rinunciando ad
inseguire la vera natura dell’ente fisico oggetto dello studio ci si limita a modellarne alcuni aspetti che risultino
importanti in una classe di situazioni e di fenomeni ben precisata. Il modello di Cauchy risulterà appropriato
quando sia rilevante il dettaglio della deformazione delle sezioni trasversali del corpo snello, quello di Eulero
quando questa deformazione abbia effetti trascurabili, rimanendo tali sezioni trasversali ortogonali alla linea
d’asse, mentre la teoria di Timoshenko sarà utile nel caso in cui si presentino scorrimenti di taglio, cioè difetti
di ortogonalità delle citate sezioni. Non risulta che sia stato fino ad ora di una qualche utilità studiare la
struttura di un’ala di aeroplano a livello atomico, o in regime di velocità prossime a quelle della luce, ma non
è saggio pronunciarsi per le necessità che si possano presentare in futuro.
È interessante notare (si veda per esempio ancora Aris [1] oppure il manuale Pensare per Modelli della
Open University [41]) che i vari modelli proposti di corpo deformabile e di strutture reticolari sono considerati
sistematicamente come esempi di modelli di successo e per meglio spiegare le affermazioni generali della
Teoria dei Modelli: infatti uniscono quelle rare caratteristiche di maneggevolezza matematica e di precisione
descrittiva della realtà che sono auspicabili in ogni modello matematico di un qualche fenomeno fisico.
Probabilmente è la familiarità con i vari modelli di corpo deformabile - insieme alla necessaria capacità di
passare da una descrizione all’altra di un medesimo ente fisico e di stabilire delle relazioni fra tali differenti
descrizioni - che rende, in generale, i cultori della Scienza delle Costruzioni contemporaneamente così inclini allo
studio delle applicazioni, all’astrazione matematica ed alle discussioni metafisiche. Un’altra loro caratteristica
peculiare è la tendenza alla estrema precisione dei loro discorsi, unita ad una cura quasi maniacale della scelta
delle parole utilizzate. Tale caratteristica è facilmente comprensibile quando si tenga conto che nell’uso dei
vari modelli da loro utilizzati correntemente è importantissimo, pena una confusione inestricabile di concetti
e significati, distinguere, attribuendo loro diversi nomi, fra diversi enti: quelli fisici, che appartengono al
15.2. MORFISMI. 175
mondo dei fenomeni che vogliamo descrivere (i corpi deformabili) e quelli astratti, che servono come modello
matematico dei primi (trave di Eulero, trave di Timoshenko, Continuo di Cauchy).
Il necessario confronto fra le prestazioni dei vari modelli spiega, infine, sia le citate tendenze alla metafisica
che la necessità di scegliere diversi nomi per caratterizzare i diversi enti matematici utilizzati per descrivere
un medesimo ente fisico.
Il fatto che una ragionevole padronanza dei metodi della Scienza delle Costruzioni richieda l’utilizzo
di diversi registri intellettuali induce talvolta gli allievi ingegneri a non accettarne l’utilità ed a ritenerla
incomprensibile e lontana dalla pratica.
Al lettore che, arrivato a questo punto, ritenga di poter dedurre dalla presente introduzione la totale in-
utilità delle sezioni successive si può consigliare di, tout simplement, saltarle: la sua posizione è altrettanto
rispettabile di quella rappresentata dalla letteratura -di parte- che viene citata a difesa delle scelte fatte nella
loro stesura. Il più antico sostenitore di cui si abbia notizia della inutilità della Teoria dei Modelli e della sua
visione di base è Sesto Empirico, come chiaramente si evince fin dalle prime frasi del suo Adversus Mathe-
maticos: insieme a molti suoi epigoni egli recisamente nega l’utilità dei modelli matematici nella descrizione
del mondo fisico.
Al lettore che ritenga, invece, di leggere le sezioni seguenti è dovuto un avvertimento: non si aspetti di
potere apprezzare appieno gli esempi che vi troverà prima di avere assimilato i concetti esposti nei capitoli suc-
cessivi. Questo prologo deve essere considerato anche un epilogo da rileggere come capitolo di riorganizzazione
della materia trattata in tutto il presente testo.
15.2 Morfismi.
l’aspetto più delicato del nostro tentativo di dare una rappresentazione logica del mondo fisico è racchiuso nel
concetto di modello matematico. Per illustrare tale concetto (utilizziamo qui una rielaborazione di quanto
esposto nel manuale Algebra della Open University [40]) dobbiamo fare ricorso alla nozione algebrica di
morfismo, di seguito introdotta.
Siano (X1 , X2 , X3 ) e (Y1 , Y2 , Y3 ) due terne di insiemi, per ciascuna delle quali sia definita una operazione
binaria. Una tale operazione associa ad ogni coppia di elementi in X1 × X2 (risp. Y1 × Y2 ) un elemento di X3
(risp.Y3 ). Indicandole rispettivamente con i simboli ¯ e ¡ avremo:
¯ : X1 × X2 → X3 ,
(15.1)
¡ : Y1 × Y2 → Y3 ,
¯ : (x1 , x2 ) ∈ X1 × X2 7→ (x1 ¯ x2 ) ∈ X3 ,
(15.2)
¡ : (y1 , y2 ) ∈ Y1 × Y2 7→ (y1 ¡ y2 ) ∈ Y3 .
Siano inoltre fi (i = 1, 2, 3) una terna di applicazioni iniettive da Xi ad Yi :
fi : Xi → Yi , fi : xi ∈ Xi 7→ fi (xi ) ∈ Yi . (15.3)
Si noti che nel caso in esame i tre insiemi Xi ed i tre insiemi Yi sono tutti copie di IR e tutte e tre le
funzioni fi coincidono con log . Come già dimostrato da Archimede nel suo Arenario (si veda Boyer [8] e
Lucio Russo [35]) un tale morfismo è molto utile quando si vogliano calcolare i prodotti di numeri molto
grandi.
• Consideriamo a) un circuito RLC collegato in serie ad un generatore di potenziale V (t) e b) una particella
materiale di massa m, in moto su una retta assegnata, soggetta ad una forza esterna assegnata F (t),
una forza di richiamo elastica lineare con costante k ed una forza di attrito proporzionale alla velocità,
con costante di viscosità µ. Consideriamo poi i) l’operazione che associa alla coppia circuito RLC
e generatore di potenziale il segnale carica capacitiva Q(t) corrispondente ad un certo stato iniziale
del circuito RLC; ii) l’operazione che associa alla coppia particella materiale e forza esterna il moto
x(t) corrispondente ad un certo stato iniziale della particella; iii) le funzioni che associano le costanti
RLC alle costanti µ, m, k , V (t) rispettivamente ad F (t) e Q(t) ad x(t) (tutte le grandezze considerate
essendo opportunamente adimensionalizzate). L’evidenza sperimentale permette di affermare che, in
una ampia gamma di situazioni, le tre funzioni (rispetto le operazioni) introdotte rappresentano un
morfismo. Solitamente quando un tale morfismo fra fenomeni fisici viene osservato si dice che si è
stabilita un’analogia fisica.
Il concetto di analogia fisica è stato utilizzato sovente nell’insegnamento delle materie tecnico-scientifiche
e nella pratica professionale perché si ritiene che grazie ad esso si ottengano interessanti suggerimenti sul
comportamento dei due fenomeni così confrontati. In passato, per esempio, sono stati trovati circuiti elettrici
analoghi ad alcune strutture particolarmente interessanti nelle applicazioni dell’ingegneria civile: tali circuiti
sono da considerarsi come calcolatori analogici utilizzabili per la progettazione delle citate strutture. Op-
pure, ancora, nello studio delle travi di Saint-Venant è stato notato come, utilizzando una sorprendente analo-
gia fisica con i fenomeni di deformazione di una membrana di uguale sezione, si possano ottenere interessanti
informazioni sulla loro deformazione torsionale. L’analogia fisica fra due fenomeni è spesso giustificata solo
invocando l’accertamento di una solida evidenza sperimentale. In realtà (si veda la bella discussione sviluppa-
ta in Feynman [14]) tutte le analogie fisiche sono sempre ottenute per mezzo della mediazione di due processi
di modellazione matematica: i) due fenomeni fisici sono modellati per mezzo di opportuni enti matematici ed
equazioni differenziali; ii) fra tali enti ed equazioni si stabilisce una corrispondenza biunivoca; iii) si dimostra
infine che, note le soluzioni delle equazioni modello del primo fenomeno, sono note anche quelle relative al
secondo (e viceversa); iv) infine si collegano fra di loro gli aspetti dei due fenomeni confrontati ritenuti nei
modelli matematici già introdotti.
Purtroppo spesso la trattazione di questo complesso procedimento viene semplificata non riportando i
passi da i) a iii) ma semplicemente riferendo il risultato ottenuto in iv).
Esempio 219 Consideriamo a) l’insieme Γ delle curve di classe C 1 a tratti nello spazio puntuale euclideo
tridimensionale e l’insieme delle distribuzioni (nel senso di Schwartz) di forze e momenti definito sulla generica
γ ∈ Γ; b) l’insieme delle forme di un corpo deformabile B e l’insieme delle possibili interazioni meccaniche
di tale corpo con il mondo esterno; supponiamo inoltre che B sia snello, cioè che in presenza delle citate
interazioni abbia sempre una forma in cui una dimensione sia dominante rispetto alle altre due. Conside-
riamo poi i) l’operazione che, per mezzo della soluzione dell’equazione differenziale della linea Elastica detta
di Eulero, associa ad una curva γ 0 e ad una distribuzione di forze e momenti la curva γ; ii) l’operazione che
associa alla forma indeformata e ad una interazione la forma che il corpo assume a causa di quest’ultima;
iii) le funzioni che associano ad una curva γ la forma del corpo ottenuta traslando una figura piana (detta
sezione) lungo la stessa γ, e ad una distribuzione di forze e momenti la corrispondente interazione meccanica.
Si noti che nell’esempio in esame gli insiemi X1 e X3 , Y1 e Y3 e le funzioni f1 e f3 coincidono. L’evidenza
sperimentale dimostra che in un’ampia gamma di situazioni le funzioni (rispetto alle operazioni) appena de-
finite rappresentano un morfismo. Oggetto della teoria della trave di Bernoulli-Navier (formalizzazione delle
idee di Eulero) e di una gran parte dei corsi di Scienza delle Costruzioni è la costruzione e l’analisi di tale
morfismo.
1. Scegliendo, a priori, una classe di enti matematici e di regole di identificazione fra enti matematici ed
enti fisici;
2. Verificando in quali circostanze le citate regole di identificazione sono effettivamente un morfismo, facen-
do uso sia di ragionamenti logico-deduttivi (per investigare le relazioni fra gli enti matematici introdotti)
sia del metodo sperimentale (per investigare le relazioni fra gli enti fisici considerati).
A seconda di quale sia l’insieme di definizione delle funzioni fi che appaiono nella definizione di morfismo
data nella sezione precedente, il nostro modellista avrà una visione induttivista o deduttivista del metodo
scientifico.
Consideriamo il seguente diagramma di morfismo:
Questo diagramma riflette una visione induttivista (e ci sembra di poter dire Platonico-Newtoniana) che si
basa sulla speranza di poter trovare, forse dopo una serie di tentativi ed errori, il modello: cioè il morfismo
tra il mondo fisico e l’insieme degli oggetti matematici utilizzato per descriverlo. La speranza consiste nel
ritenere che l’intera realtà sia rappresentabile nell’universo matematico e quindi, almeno in linea di principio,
completamente prevedibile. Si vuole intendere cioè che i due mondi hanno in sostanza la stessa forma (Galilei
afferma che il gran libro della natura è scritto con i caratteri della matematica e della geometria): il progresso
della scienza consisterebbe, in tale visione, nell’aggiungere sempre più dettagli (cioè oggetti matematici) nella
nostra descrizione del mondo.
La validità universale del modello sarebbe verificata sperimentalmente in maniera indiscutibile proprio
accertandosi della chiusura del diagramma, ovvero della perfetta corrispondenza tra risultati matematici e
risultati fisici.
A difesa della visione induttivista vengono ricordati (a nostro avviso a sproposito) i successi della meccanica
Newtoniana: per esempio utilizzando il modello Newtoniano del sistema solare Gauss aveva calcolato l’effetto
sull’orbita di un pianeta intorno al Sole della presenza di un altro pianeta dall’orbita più esterna. Analizzando
l’orbita di Urano, fu possibile a Leverrier, nel 1846, verificare l’esistenza di Nettuno. Tale argomentazione è
stata facilmente confutata da Bertrand Russell con il suo aneddoto del tacchino induttivista2 (per maggiori
dettagli si veda la p.24 di Chalmers [10]).
2 Un tacchino induttivista, serio sperimentatore, decide di formulare una teoria riguardo le modalità con cui il fattore nutre
i suoi tacchini. D’inverno e d’estate, se piove o se è tempo sereno, in tutti i giorni della settimana, se ha litigato o meno con
la moglie, ecc. ecc. il fattore alle 19 in punto nutre tutti i tacchini. Il tacchino, confortato dall’enorme mole di dati raccolti
l’antivigilia di Natale enuncia solennemente la sua legge universale: Il fattore ci nutre sempre e lo fa alle 19 in punto. Alle 11
della vigilia di Natale al tacchino fu tirato il collo.
178 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI
Archimede saluta Eratostene...... Vedendo in te quello che io considero uno studioso appassion-
ato ed un uomo eccellente in filosofia che tributa il dovuto onore alle investigazioni matematiche,
quando esse risultano necessarie, io ho pensato opportuno scriverti per spiegare in dettaglio la
peculiarità di un certo metodo, mediante il quale tu sarai in grado di cominciare a congetturare
teoremi riguardo gli oggetti matematici per mezzo della meccanica. Io sono persuaso che questo
metodo è altrettanto utile anche nella dimostrazione rigorosa (degli stessi teoremi che induce a
congetturare): perchè alcune cose mi furono chiare prima per mezzo della meccanica, sebbene
esse dovessero essere successivamente provate geometricamente, poichè il congetturare con questo
3 Uno studio approfondito dell’etimologia della parola teoria porterebbe il lettore a scoprire che essa ha radice comune con la
parola teatro. Suggestivamente si può affermare che secondo gli inventori greco-ellenisti della parola teoria lo scienziato che ne
formula una è uno spettatore del teatro dei fenomeni, ne osserva la sequenza e li sintetizza con metodi matematici.
4 L’unica copia del quale ci è pervenuta in maniera molto fortuita: nel 1906 Heiberg la scoprì fotografando un palinsesto di
preghiere della Chiesa Ortodossa ottenuto grattando via l’inchiostro per una trascrizione di molte opere Archimedee.
15.4. RELAZIONE FRA MATEMATICA, SCIENZA E TECNOLOGIA. 179
metodo non significa produrre una dimostrazione. D’altra parte è, naturalmente, molto più facile
fornire una dimostrazione quando una qualche conoscenza delle proprietà cercate sia stata ac-
quisita con questo metodo piuttosto che cercarla senza una conoscenza a priori. (segue il calcolo
dell’area sottesa da un arco di parabola utilizzando i risultati sull’equilibrio delle forze ottenuti
da Archimede nell’altra sua opera Sull’Equilibrio). I risultati appena ottenuti non sono stati, tut-
tavia, dimostrati rigorosamente: abbiamo solo una indicazione del fatto che essi sono veri. Perciò
noi consci che il teorema non è dimostrato ma solo sospettando che il risultato sia vero faremo
ricorso ad una prova geometrica, che io stesso ho scoperta e ho già pubblicata.
Con Colonnetti riteniamo Archimede un padre della fisica matematica5 e, per questo, possiamo sostenere,
con Boyer, che Archimede avrebbe potuto benissimo tenere un corso teorico di architettura navale (o di
Statica o di Meccanica delle Strutture o di Idraulica o di Costruzioni Idrauliche) e che, sebbene probabilmente
avrebbe preferito un corso di matematica pura, non era uno scienziato da tavolino (ma si può addirittura
negare che ne esistano): quando necessario era capace di mettere a frutto la sua capacità meccanica. Il
ruolo che sarebbe stato appropriato nel sistema universitario moderno per uno scienziato-tecnologo come lui
è chiarito dal testo tratto dal Manuale di Erone d’Alessandria riportato in quarta di copertina. In tutti i testi
Archimedei (si vedano i libri Sull’Equilibrio o Idrostatica) la mossa d’apertura è l’elenco degli oggetti e dei
teoremi matematici che costituiscono la prima riga dello schema (15.7) e solo successivamente ci si preoccupa
di stabilire le relazioni di morfismo fi necessarie a dare una interpretazione fisica del modello. Quindi si
può concludere che Archimede 1) distingueva bene il prototipo dal suo modello matematico 2) sapeva che la
dimostrazione matematica nell’ambito del modello di una certa proprietà è del tutto indipendente dal fatto
che la corrispondente proprietà sia verificata dal prototipo 3) accettava il metodo ipotetico-deduttivo.
Per l’importanza che a questo metodo veniva data da Archimede (e da tutta la scuola Ellenistica) per lo
studio di questioni tecniche si fa riferimento ancora una volta ad Erone: nella letteratura successiva l’accento
sulla priorità della formulazione matematica rispetto agli altri momenti dello sviluppo del modello è malinteso.
Seguendo gli empiristi alla Sesto Empirico si è ritenuto che Archimede e tutti gli scienziati Ellenistici disprez-
zassero le applicazioni, mentre essi ritenevano che l’approccio deduzionista fosse l’unico portatore di frutti
nelle applicazioni. Riteniamo che Lucio Russo abbia ragione quando sostiene che le seguenti affermazioni,
alcune delle quali sono accettate ora da una gran parte degli scienziati moderni e che facciamo nostre in toto,
si sarebbero potute sentire pronunciare da Archimede in una sua lezione:
1. La grande utilità della scienza esatta consiste nel fornire modelli del mondo reale all’interno dei quali
esiste un metodo garantito per distinguere le affermazioni vere da quelle false.
2. La scienza riesce a garantire la verità delle proprie affermazioni a patto di limitarle all’ambito di
applicazione dei modelli.
3. Tali modelli permettono di descrivere e prevedere fenomeni naturali ed hanno la possibilità di auto-
estendersi con il metodo dimostrativo e quindi divengono modelli di settori di attività tecnologica: la
loro predittività viene utilizzata per concepire dispositivi tecnologici nuovi.
4. La tecnologia scientifica caratterizzata dall’avvalersi di una progettazione effettuata all’interno di teorie
scientifiche appare intrinsecamente legata alla stessa struttura metodologica della scienza esatta e non
può che nascere da questa.
5. In nessuna società si è sviluppata una tecnologia in grado di produrre efficacemente apparati veramente
nuovi senza che questa tecnologia si sviluppasse e fosse sostenuta da un insieme di teorie scientifiche:
probabilmente la prima cultura in grado di sviluppare una tecnologia scientifica è stata quella ellenistica
(III-II sec.A.C.). Le conoscenze tecnologiche, prive del substrato scientifico di cui erano prodotto, furono
solo al più conservate in epoca romana e si dovè aspettare la seconda rivoluzione scientifica rinascimentale
per vedere nuovi sviluppi della scienza e di conseguenza della tecnologia.
5 Con un uso di questa espressione, forse non da tutti condiviso, intendiamo con fisica matematica quella parte della scienza
che si occupa di formulare modelli logico-deduttivi falsificabili per la descrizione di fenomeni fisici.
180 CAPITOLO 15. CENNI DI TEORIA DEI MODELLI
Capitolo 16
CINEMATICA GALILEIANA
16.1 Introduzione.
In cinematica si descrivono l’insieme degli stati in cui un sistema si può trovare e l’insieme dei moti ad esso
consentiti 1 . D’altro canto la determinazione delle equazioni differenziali che permettono di prevedere il moto
di un sistema dato (cioè dell’evoluzione temporale del suo stato) è oggetto della dinamica. Parafrasando
Lagrange e D’Alembert: “l’evoluzione di un sistema percorre una successione di stati, che l’integrazione di un
opportuno sistema di equazioni differenziali consente di definire”.
La Meccanica dei Solidi e delle Strutture fornisce modelli matematici per lo studio dell’evoluzione temporale
dello stato dei sistemi di corpi in risposta ad assegnate interazioni con il mondo esterno: dunque nel suo ambito
giocano un ruolo rilevante considerazioni geometriche riguardo lo spazio fisico nel quale i corpi si piazzano e si
muovono. Tutte le cinematiche concepibili per un dato corpo avranno in comune la necessità di descrivere la
localizzazione spaziale di tutte le parti di materia che lo costituiscono: quindi la cinematica di un corpo dovrà
sempre almeno includere delle funzioni piazzamento che specifichino il posto in cui sono localizzate tutte le
particelle materiali che si assume lo costituiscano.
Definizione 220 Si chiama osservatore O una funzione che associa ad ogni istante t e ad ogni particella
materiale P una terna rO,P (t) di numeri reali.
Un osservatore è quindi in grado di localizzare in ogni istante tutte le particelle materiali al cui moto
è interessato: la terna rO,P (t) caratterizza la traslazione fra l’origine2 O di O ed il posto dove si trova,
all’istante t, la particella P. Quando questo non causerà possibilità di confusione denoteremo tale traslazione
rP (t) tralasciando di specificare esplicitamente l’osservatore.
Si noti che grazie alla definizione appena introdotta è possibile, nella formulazione del modello particella
materiale, stabilire l’essenziale distinzione fra un corpo e la posizione che esso occupa. Come già notato da
D’Alembert la necessità di una tale distinzione è cruciale quando si voglia correttamente descrivere il moto:
purtroppo ancora oggi alcuni testi di meccanica risentono dell’influenza della scuola Cartesiana che la negava
sulla base di oscure ragioni metafisiche.
Più in generale un osservatore associa ad ogni evento e, che gli è dato di considerare, un istante di tempo
t ed una traslazione rO,e (t), che lo localizza.
Considerati i due eventi e1 ed e2 avvenuti all’istante t, l’osservatore O individuerà la traslazione rO,e1 ,e2 (t)
dall’evento e1 all’evento e2 per mezzo della relazione
181
182 CAPITOLO 16. CINEMATICA GALILEIANA
Assioma 221 Della struttura euclidea dello spazio delle traslazioni. Ogni osservatore può scegliere
le terne di numeri reali che localizzano gli eventi considerati (cambiando opportunamente il suo sistema di
unità di misura) in modo che le distanze e gli angoli fra due traslazioni siano stimate utilizzando il prodotto
scalare euclideo in IR3 .
È concepibile che il moto relativo di due osservatori possa influenzare le loro misure della distanza spaziale
e di intervalli temporali. Quando si escluda questa possibilità, si è indotti a formulare il seguente assioma,
che caratterizza la cinematica galileiana:
Assioma 222 Della invarianza galileiana delle distanze e degli intervalli di tempo. Si consideri
una generica coppia di due osservatori. È sempre possibile che essi possano scegliere un insieme di unità
di misura comune (per mezzo di opportuni cambiamenti di unità di misura) per il quale le lunghezze e gli
angoli fra traslazioni corrispondenti agli stessi eventi, come da loro indipendentemente determinati, siano
coincidenti. Inoltre l’insieme degli eventi contemporanei per un osservatore risultano contemporanei anche
per l’altro.
Si noti che, nell’enunciato dell’assioma di invarianza appena enunciato, si ammette la possibilità per ogni
coppia di osservatori di stabilire quando alcuni fenomeni da loro indipendentemente osservati specifichino uno
stesso evento. Nessuno che speri di descrivere e prevedere fenomeni fisici può negare tale possibilità.
Per precisare come diversi osservatori misurano le lunghezze e gli angoli e stabilire come queste diverse
misure sono correlate fra loro è necessario richiamare alcuni dei risultati di algebra lineare esposti precedente-
mente: infatti dai due enunciati assiomi, dalla proposizione 103, Parte I e dalle considerazioni svolte all’inizio
della sezione 13.10 è immediato dimostrare la seguente altra:
Proposizione 223 Della legge di trasformazione galileiana delle traslazioni per cambiamento di
osservatore. Si assuma che i due osservatori O1 ed O2 abbiano scelto un insieme di unità di misura comune
la cui esistenza è postulata nell’assioma 222. Dette r1 ed r2 le terne di numeri reali che localizzano un
(O)
medesimo evento e relativamente ai due osservatori O1 ed O2 e detta r12 la traslazione dall’origine di O1
all’origine di O2 come determinato da O1 all’istante t, allora esiste una matrice 3 × 3 ortogonale M12 tale
che si ha:
(O)
r1 = M12 r2 + r12 . (16.2)
che associa la traslazione r2 dall’origine di O2 , che localizza e rispetto all’osservatore O2 , alla traslazione r1 −
(O)
r12 sempre dall’origine di O2 , che però localizza e rispetto all’osservatore O1 . Per l’assioma 222 l’applicazione
M12 conserva il prodotto scalare euclideo. Quindi per la proposizione 103, Parte I, tale applicazione è lineare e
rappresentata univocamente da una matrice ortogonale nella base naturale di IR3 (si tenga presente l’assioma
(O)
221), che abbiamo denotata con il simbolo M12 . Come la traslazione r12 anche la matrice M12 può dipendere
dall’istante t.
La dimostrazione della seguente proposizione è banale:
Proposizione 224 Nelle ipotesi della proposizione precedente e tenendo conto della definizione (16.1) si ha
rO1 ,e1 ,e2 (t) = M12 (t)rO2 ,e1 ,e2 (t) (16.4)
Dati due osservatori O1 ed O2 la matrice ortogonale M12 la cui esistenza è stata appena dimostrata è detta
matrice di trasformazione delle traslazioni come misurate dall’osservatore O1 nelle traslazioni
come misurate da O2 .
Gli assiomi appena introdotti sono conformi ad un principio di ben più vasta portata, guida alla formu-
lazione di ogni teoria meccanica. Ci riferiamo al principio di relatività galileiana. Tale principio stabilisce
16.4. SPAZIO ASSOLUTO DELLE POSIZIONI. 183
che le leggi della fisica devono essere formulate in modo che nessun osservatore abbia un ruolo privilegiato.
Taluni, confusi dal tentativo di assiomatizzazione della meccanica dovuto a Mach,3 restringono il principio di
relatività galileiana ai cosiddetti osservatori (o sistemi) inerziali: seguendo le più moderne assiomatizzazioni4
assumiamo, invece, che la sua validità sia generale. Un osservatore inerziale deve essere definito semplice-
mente come un osservatore per cui la forza d’inerzia di una particella materiale è uguale alla sua massa per la
sua accelerazione, mentre un osservatore non inerziale osserva una forza d’inerzia in cui appaiono anche i
termini correttivi di Coriolis, di accelerazione centripeta e di accelerazione complementare.
Proposizione 225 L’insieme di tutti i vettori traslazione T P è munito di struttura di spazio vettoriale. Lo
spazio delle posizioni P della meccanica classica è uno spazio puntuale affine euclideo tridimensionale5 il cui
spazio delle traslazioni è lo spazio vettoriale T P.
Lo spazio P è il modello matematico dello spazio fisico dove si trovano e si muovono i corpi: esso è
caratterizzato come un insieme di punti, detti posti, e di vettori, detti traslazioni. Una traslazione porta da
un posto ad un altro ed ogni posto è raggiungibile a partire da un generico altro posto per mezzo di una
traslazione.
È istruttivo notare che la seguenti proposizioni sono banale conseguenza delle definizioni ed assiomi
introdotti:
Proposizione 226 Fissato un sistema di unità di misura che verifichi le condizioni specificate nell’assioma
222 ad ogni osservatore O può essere associata ad ogni istante t la coppia (O(t), {ei (t)}) , dove O(t)∈ P è il
posto occupato all’istante t dalla sua origine ed {ei (t)} è una base ortonormale di T P , detta base di O, tale
che la terna rO,e (t) rappresenta l’insieme delle componenti del vettore traslazione assoluto dall’origine di O
al posto dove avviene e.
Proposizione 227 Siano O1 ed O2 due osservatori le cui unità di misura verifichino le condizioni specificate
nell’assioma 222. Nello spazio vettoriale T P l’applicazione QO
O1 che porta i vettori di base di O2 nei vettori
2
Si ricorda che ogni operatore ortogonale conserva il prodotto scalare dei vettori cui è applicato. Quindi
l’applicazione di un operatore ortogonale conserva la lunghezza e l’angolo fra i vettori.
Se consideriamo una particella materiale P in moto in P, che occupa all’istante t la posizione x(t), si dice
vettore posizione di P rispetto all’origine di O quel vettore che ha come componenti nella base {ei (t)} la
terna rP (t).
3 Per una più dettagliata discussione sulla inconsistenza della Assiomatica di Mach rimandiamo il lettore al Capitolo 18.
Notiamo esplicitamente qui che non è possibile introdurre una assiomatica per la meccanica in cui sia possibile definire il concetto
di forza in termini di concetti primitivi puramente cinematici.
4 Formulate in Salençon [36] o in Noll [30].
5 Uno studio dettagliato degli spazi puntuali affini si può trovare nel Capitolo 14.
184 CAPITOLO 16. CINEMATICA GALILEIANA
delle terne di funzioni continue definite sull’intervallo (0, ). Gli elementi di M sono i campi degli spostamenti
delle particelle materiali costituenti la corda, essendo tali spostamenti rappresentati in un fissato sistema di
coordinate. Quindi la configurazione di una corda è specificata da tre campi scalari.
• Circuito : Lo stato del sistema circuito elettrico può caratterizzarsi specificando le correnti che scorrono
attraverso i suoi rami e con le tensioni misurate ai capi di ciascun suo elemento.
• Punto materiale nello spazio: Dato un sistema di riferimento, la configurazione di un punto materiale
sarà definita dalle tre coordinate spaziali (x, y, z) che caratterizzano la sua posizione. Lo spazio delle
configurazioni è quindi IR3 .
• Gas perfetto: Lo stato di un gas perfetto in condizioni di equilibrio è caratterizzato quando siano noti la
sua pressione e la sua temperatura (la sua densità risulterà allora determinata dall’equazione di stato):
lo spazio delle configurazioni è quindi IR+ × IR+ .
• Pendolo semplice piano: La sua configurazione è caratterizzata dall’angolo formato dalla retta passante
per il baricentro ed il punto di sospensione con la verticale. Lo spazio delle configurazioni è S 1 , cioè il
cerchio unitario immerso in IR2 .
• Modello di Volterra della lotta per la vita fra predatore-preda: In questo caso la configurazione è ca-
ratterizzata dalla consistenza numerica delle popolazioni di predatori e di prede presenti in una data
area geografica. Se le specie di predatori (risp. di prede) da considerare sono p (risp. q) lo spazio delle
configurazioni sarà IRp+ × IRq+ .
• Continuo rigido: Lo spazio delle configurazioni di tale sistema, è descritto nei prossimi paragrafi.
• Struttura reticolare di travi: Tale sistema è descritto in un successivo capitolo. Il suo stato è caratte-
rizzato dalla lunghezza di ogni trave che lo costituisce (per definizione di struttura reticolare nessuna di
tali travi si può flettere). Se N è il numero di travi costituente la struttura lo spazio delle configurazioni
è IRN+ .
Si noti che in generale lo spazio delle configurazioni non può essere messo globalmente in corrispondenza
biunivoca con IRn . Infatti gia’ nel caso del pendolo piano appena discusso lo spazio delle configurazioni
è un cerchio in IR2 per il quale non esiste una corrispondenza biunivoca e bicontinua con IR1 . Il lettore
interessato a maggiori dettagli riguardo la definizione matematicamente precisa degli spazi delle configurazioni
finito-dimensionali potrà trovarla nel Capitolo 22.
modellata come sistema finito-dimensionale può essere studiata soltanto risolvendo un sistema di n equazioni
differenziali ordinarie; tuttavia introducendo per la stessa struttura il modello di trave di Bernoulli-Navier
(o al più di trave di Timoshenko), che è infinito-dimensionale, una buona conoscenza del comportamento del
sistema può ottenersi risolvendo un sistema (più agevole) di tre equazioni differenziali a derivate parziali.
Un modello matematico è infinito-dimensionale quando utilizza come spazio delle configurazioni uno
spazio funzionale infinito-dimensionale, cioè un insieme di campi scalari, vettoriali o tensoriali (si veda la
sezione 14.3).
Uno stesso sistema può essere descritto, a seconda delle situazioni fisiche da considerare e delle capacità
di calcolo di cui si dispone, sia con modelli infinito-dimensionali che con modelli finito-dimensionali. Con-
seguentemente è importante distinguere fra i concetti di sistema e insieme degli stati, che sono enti del mondo
fisico, e quelli di modello e spazio delle configurazioni, che sono enti matematici. Tale distinzione sarà sot-
tolineata usando, quando necessario, nomi diversi per gli enti fisici ed i loro modelli matematici. Tuttavia,
mano a mano che svilupperemo la discussione, questa distinzione, come in un abuso di notazione, non sarà
sempre rimarcata, per rendere l’esposizione meno faticosa: il lettore, a quel punto, dovrebbe essere in grado
di ristabilirla, nella sua mente, quando lo ritenga necessario.
Di seguito il lettore troverà una lista di esempi di sistemi infinito-dimensionali:
• Trave di Bernoulli-Navier indeformabile al taglio: Nella teoria della trave di Bernoulli-Navier lo stato
del sistema è caratterizzato quando siano note i) la configurazione di confronto della trave, data da una
curva γ 0 di lunghezza L nello spazio euclideo tridimensionale, ii) il campo degli spostamenti che associa
ad ogni particella materiale della trave il suo vettore spostamento dalla configurazione di confronto a
quella attuale. Lo spazio delle configurazioni coincide con lo spazio M introdotto per la corda elastica.
• Linea di trasmissione elettrica: Lo stato del sistema è caratterizzato dal campo potenziale elettrico
lungo la linea.
• Campi elettromagnetici in sistemi dielettrici: Lo stato di un corpo dielettrico rigido è caratterizzato
quando siano noti il campo elettrico e quello di polarizzazione elettrica.
• Corpo rigido conduttore di calore: Per caratterizzarne lo stato bisogna conoscerne la temperatura in
ogni suo punto.
• Piastra di Kirchhoff-Love: Lo stato del sistema è caratterizzato dal campo degli spostamenti dalla
configurazione di confronto (che è una parte regolare di un piano) a quella attuale (che è una superficie
regolare).
influenzano in maniera rilevante il comportamento meccanico del blocco, allora sarà necessario modellarlo
come continuo tridimensionale. Se 1 ≈ 2 << 3 e se le deformazioni delle citate sezioni non influenzano in
maniera rilevante la forma assunta dall’asse di B sotto l’azione di specificate azioni esterne allora B potrà
essere modellato con sufficiente precisione come continuo monodimensionale. Se infine 1 << 2 ≈ 3 e se le
deformazioni dei segmenti di lunghezza 1 hanno una influenza trascurabile sulla forma assunta dall’insieme
delle particelle materiali I2 × I3 allora B potrà essere modellato come continuo bidimensionale.
La specificazione della posizione di tutti i punti sostanziali di un continuo B ne determina una configu-
razione. Talvolta risulta utile identificare le particelle materiali di B, in tutte le altre configurazioni possibili,
etichettandole con la posizione occupata in una specifica configurazione, detta configurazione di confronto
(o di riferimento).
Si noti che la configurazione di confronto introdotta per identificare le particelle sostanziali di B al fine di
descriverne un moto non deve necessariamente essere una configurazione assunta durante quel moto.
Il moto delle particelle materiali di un dato continuo B è specificato determinando la successione
temporale delle posizioni che esse assumono.
Anche nello sviluppare il modello continuo è importante saper distinguere il concetto di particella materiale
e quello di posizione da essa occupata in una data configurazione. L’identificazione di ciascuna particella
materiale con la posizione che essa occupa in una configurazione di confronto permette una efficace descrizione
matematica del moto, ma non deve generare confusione. Una data particella materiale durante il suo moto
occupa, in generale, diverse posizioni.
Questo campo associa alla variabile X la velocità, all’istante t, della particella materiale corrispondente. Si noti
che X non è il posto occupato all’istante t dalla particella ma il posto da essa occupato nella configurazione
di confronto.
Il campo di velocità appena introdotto è definito nella configurazione di confronto del continuo considerato:
è talvolta utile spostare questo campo sulla configurazione attuale.
188 CAPITOLO 16. CINEMATICA GALILEIANA
Chiamiamo campo di velocità spaziale (o euleriana) v il campo definito, nella forma attuale χt (C ∗ )
per mezzo della formula (si ricordi che χt si è assunta invertibile e quindi X = χ−1
t (x)):
Questo campo associa al posto x appartenente alla configurazione assunta all’istante t dal corpo B la velocità
della particella materiale che si trova a passare in x all’istante t.
A seconda delle applicazioni considerate, nello studio del moto dei continui sono utilizzati due approcci
differenti.
Diremo che per la cinematica di B è stata introdotta una descrizione materiale o lagrangiana se si
specifica il moto per mezzo di una funzione piazzamento rispetto ad una data configurazione di confronto, e si
definiscono tutti i campi descrittori di stato nel dominio C ∗ . Diremo invece che è utilizzata una descrizione
spaziale o euleriana se si specifica il moto attraverso il campo di velocità euleriano ad ogni istante t in
χt (C ∗ ) e se anche tutti gli altri campi descrittori di stato sono definiti in ogni istante t in χt (C ∗ ).
Di solito nella meccanica dei solidi si preferisce l’utilizzo della descrizione materiale o lagrangiana: il
vantaggio di una tale descrizione risiede nel fatto che i descrittori cinematici sono dei campi definiti in un
dominio indipendente dal tempo, cioè la forma di confronto. Tentare una descrizione spaziale o euleriana del
moto di un continuo B modello di corpo solido deformabile richiede la capacità di determinare l’evoluzione
di campi il cui dominio, coincidendo con l’insieme dei posti occupati da B, varia nel tempo.
16.7. CONTINUI COME MODELLI DI CORPI: CINEMATICA. 189
Tuttavia nella meccanica dei fluidi non si vuole seguire l’evoluzione nel tempo della posizione di particelle
materiali. Infatti in questo contesto spesso ci si pone il problema di studiare il campo di velocità, densità e
pressione in una data regione dello spazio P in cui un fluido si trova a scorrere. In questo caso è opportuna
una descrizione spaziale o euleriana del moto. Tentare una descrizione materiale o lagrangiana del flusso di un
fluido in una regione assegnata dello spazio richiede la capacità di determinare l’evoluzione di campi definiti
su insiemi di particelle materiali che variano nel tempo.
Si noterà tuttavia che è inevitabile, anche in meccanica dei fluidi, l’introduzione della descrizione materiale,
non essendo possibile altrimenti la cruciale definizione (16.7) che è preliminare alla (16.8).
Per illustrare i concetti appena introdotti, diamo prima alcuni esempi di campi utilizzati nella descrizione
materiale o lagrangiana.
• La funzione piazzamento: poichè tale funzione, precedentemente introdotta, associa alla posizione X
nella configurazione di confronto la posizione corrente x della particella materiale che nella configurazione
di confronto si trovava in X
x(X, t) := χt (X) = X + u(X, t), (16.12)
essa è caratteristica della descrizione lagrangiana del moto.
• I campi gradiente di spostamento e di deformazione (rispetto alla configurazione di confronto) di un
continuo tridimensionale
H := Gradu, F := Gradχt = 1I + H, (16.13)
dove Grad denota il gradiente rispetto la variabile X ed 1I il tensore identità nello spazio Hom (T P, T P) .
Per una trattazione adeguata dei campi appena introdotti si rimanda al capitolo successivo.
• Il campo di temperatura delle particelle materiali di B
che associa alla posizione nella configurazione di confronto di una particella materiale la sua temperatura
all’istante t.
• Il campo densità di carica di polarizzazione in un continuo dielettrico
che associa alla posizione nella configurazione di confronto di una particella materiale la sua densità di
carica di polarizzazione all’istante t.
Quelli che seguono sono invece esempi di campi utilizzati nella descrizione spaziale o euleriana, essendo il
loro insieme di definizione χt (C ∗ ), l’insieme dei posti occupati da B all’istante t.
• Lo spostamento relativo di una stessa particella sostanziale fra le configurazioni agli istanti t e t + ∆t è
dato da:
uR : x ∈ χt (C ∗ ) 7→ uR (x, t, ∆t) = χt+∆t (χ−1
t (x)) − x. (16.15)
Il vettore euleriano uR (x, t, ∆t) rappresenta la traslazione fra il posto x ed il posto occupato all’istante
t + ∆t dalla particella materiale che si trovava in x all’istante t.
• Considerando gli istanti nell’intervallo [t, t + ∆t] è facile vedere che il campo di velocità spaziale o
euleriano definito nella (16.8) è dato anche dal limite:
uR (x, t, ∆t)
v(x, t) = lim . (16.16)
∆t→0 ∆t
• Il campo densità di massa nella configurazione attuale di un corpo esteso tridimensionalmente è dato
dalla
: x ∈ χt (C ∗ ) 7→ (x) ∈ IR+ . (16.17)
Questo campo rappresenta la densità di massa della particella materiale che all’istante t si trova nel
posto x.
• Il campo densità euleriana di carica di polarizzazione in un continuo dielettrico
i : x ∈ χt (C ∗ ) 7→ i(x) ∈ T P,
che permette di rappresentare il flusso di carica attraverso una superficie euleriana Σ per mezzo della
formula Z
ΦQ = i(x) · ndA (16.19)
Σ
Si noti che i continui, la cui cinematica è stata discussa in questa sezione, possono essere modelli sia finito
che infinito dimensionali. Infatti i campi che abbiamo fin qui introdotti possono essere, quando opportune
ipotesi siano fondate, completamente specificati per mezzo di un numero finito di parametri. La sezione
seguente darà un primo esempio di sistema continuo per cui questa circostanza è verificata.
Proposizione 231 Consideriamo una particella materiale o del continuo B ed i segmenti orientati di parti-
celle materiali di estremità rO (Xo ) e rO (XP ) . L’applicazione N : IR3 → IR3 che associa alla terna di numeri
reali rO (XP ) − rO (Xo ) la terna rO (xP ) − rO (xo ) conserva il prodotto scalare euclideo. Quindi N risulta
lineare ed ortogonale.
In altre parole (come fu notato già da Eulero) l’applicazione che porta i vettori di particelle materiali (cioè
i segmenti orientati di particelle materiali, come individuate dalla posizione nella configurazione di confronto
che chiameremo brevemente vettori materiali) nei vettori posizione euleriana (cioè i segmenti formati dai
posti occupati dalle particelle materiali nella configurazione attuale, che chiameremo brevemente vettori
posizione) è una applicazione lineare che conserva angoli e lunghezze.
Chiameremo rotazioni quelle applicazioni lineari ortogonali il cui determinante è pari ad uno.
Poichè ovviamente i corpi di cui i continui tridimensionali sono modello non possono rivoltarsi come guanti
si ha la seguente:
Proposizione 232 L’applicazione N : IR3 → IR3 della proposizione precedente, quando si considerino con-
tinui tridimensionali, è una rotazione di IR3 in IR3 .
Proposizione 233 Se un piazzamento di un corpo è rigido rispetto ad un osservatore è tale anche rispetto a
tutti gli altri osservatori che verifichino le condizione espresse nell’assioma 222. Quindi l’essere rigidi è una
proprietà dei piazzamenti invariante rispetto il cambiamento di osservatore.
Dimostrazione Ovvia, stante l’assioma della invarianza galileiana delle distanze e degli intervalli di tempo,
le proposizioni 223 e 231 e quando si ricordi che la composizione di operatori ortogonali produce operatori
ortogonali (vedi proposizione 193).
16.8. UN CASO NOTEVOLE: CONTINUI RIGIDI. 191
L’insieme di tutte le posizioni permesse a P3 , una volta che siano bloccate la posizione di P1 e di P2 si può
quindi mettere in corrispondenza biunivoca con S 1 ⊂ IR2 , il cerchio di raggio unitario immerso in IR2 .
192 CAPITOLO 16. CINEMATICA GALILEIANA
• e1 , e2 , e3 sono tre versori solidali col continuo B, di origine P : ciascuno di essi è formato da un segmento
di punti materiali; tali versori solidali si piazzano, al variare della configurazione di B, in posti diversi
(l’insieme dei punti solidale all’osservatore (xP , (e1 , e2 , e3 )) è chiamato in letteratura “spazio mobile”),
• i segmenti xe1 , xe2 , xe3 denotano le posizioni attuali dei segmenti materiali e1 , e2 , e3 ,
• eN è il versore (di posizioni) dell’asse ez × xe3 chiamato linea dei nodi che passa per xP .
Stante la proposizione 223 esiste una rotazione Q((xP , (ex , ey , ez )) , (xP , (xe1 , xe2 , xe3 ))) che sovrappone
l’osservatore “fisso” (xP , (ex , ey , ez )) all’osservatore “mobile” (xP , (xe1 , xe2 , xe3 )).
È immediato vedere (infatti come risultato della composizione delle tre rotazioni di seguito specificate ex
si sovrappone a xe1 , ez a xe3 ed ey a xe2 ) che vale la seguente
Proposizione 235 La rotazione Q((xP , (ex , ey , ez )) , (xP , (xe1 , xe2 , xe3 ))) può essere rappresentata come la
rotazione composta delle seguenti tre:
2. una seconda rotazione di angolo θ intorno all’asse eN che porta ez a sovrapporsi ad xe3 ;
3. una terza rotazione di un angolo ψ intorno all’asse xe3 che porta eN a sovrapporsi ad xe1 .
Gli angoli ϕ, θ, ψ si chiamano angoli di Eulero. Utilizzando le notazioni introdotte nella (16.21) si ha
con
ex · eN = cos ϕ, ez · xe3 = cos θ, eN · xe1 = cos ψ,
(16.23)
(ex ∧ eN ) · ez = sin ϕ, (ez ∧ xe3 ) · eN = sin θ, (eN ∧ xe1 ) · xe3 = sin ψ.
Il loro uso nello studio dei sistemi di continui rigidi fu introdotto da Gibbs: grazie alle sue idee la cinematica
può essere sviluppata anche senza le complesse costruzioni ed i ragionamenti geometrici che ne avevano
caratterizzato lo sviluppo in epoca ellenistica. Rimandando il lettore interessato a questo argomento ai saggi
di Russo [35] e Boyer [8] si vuole notare qui che la rivoluzione concettuale cartesiana, che aveva portato
allo sviluppo della geometria analitica permettendo la feconda interazione fra algebra, analisi matematica e
geometria, ha invaso la meccanica grazie alla visione unificante cominciata da Gibbs, continuata da Lagrange
e compiuta da Levi-Civita portando allo sviluppo del calcolo tensoriale assoluto.
A proposito della corrispondenza fra terne di numeri reali e matrici antisimmetriche 3 × 3 stabilita nella
sezione 13.9 (proposizioni 186 e 191) vogliamo esplicitamente notare qui che due distinti vettori croce di Gibbs
possono essere associati ad un dato tensore antisimmetrico, a seconda che la corrispondenza fra componenti
data dalle (13.220) si riferisca a basi destrogire o levogire. Questa circostanza non deve sorprendere, perchè
ovviamente le modalità di variazione delle componenti di un vettore sono diverse da quelle di un tensore e solo
nel caso particolare di spazi vettoriali di dimensione tre le componenti strette di un tensore antisimmetrico
sono in numero uguale alle componenti di un vettore. Tuttavia, in maniera spesso fuorviante, in alcuni testi
(specialmente di fisica generale) si introduce il concetto di pseudo-vettore o vettore assiale, immediata-
mente dopo aver definito il prodotto vettoriale. Generalmente il lettore non riesce a rendersi conto della
ragione per cui in un passaggio da una base levogira ad una destrogira le componenti di un vettore (sebbene
qualificato come assiale) non varino nel modo usuale, perchè appare, quasi magicamente, un inaspettato segno
meno. In realtà un vettore assiale non è un vettore, bensì un operatore antisimmetrico, la cui rappresentazione
matriciale varia nel modo usuale per cambiamenti di base. La croce di Gibbs, che si può definire solo in spazi
tridimensionali, è solo un artificio che permette di rappresentare, talvolta, in modo più agevole gli operatori
antisimmetrici.
Riportiamo qui una semplice proposizione riguardo matrici antisimmetriche la cui dimostrazione è semplice
quando si considerino le proprietà del prodotto vettoriale in IR3 .
Proposizione 236 Sia W una matrice antisimmetrica (a componenti reali) non nulla e w la sua croce di
Gibbs. Si ha
2
∀u⊥ : u⊥ · w = 0 ⇒ W 2 u⊥ = − kwk u⊥ .
2
Quindi W 2 ha due autovalori distinti λ1 = 0 e λ2 = − kwk , relativi rispettivamente al sottospazio degli
autovettori © ª
Uw := v ∈ IR3 : ∃µ ∈ IR → v = µw ,
(insieme dei vettori paralleli a w) ed (Uw )⊥ , (insieme dei vettori ortogonali a w). Ovviamente la dimensione
di Uw (risp. di (Uw )⊥ ), cioè la molteplicità geometrica di λ1 (risp. di λ2 ) è pari ad 1 (risp. 2).
Dimostrazione Il generico vettore u in IR3 può decomporsi in maniera unica
µ ¶
w w
u= u· + u⊥ , (16.24)
kwk kwk
con u⊥ · w = 0. Allora
2
W 2 u = w ∧ (w ∧ u) = w ∧ (w ∧ u⊥ ) = − kwk u⊥ . (16.25)
Chiameremo vettore velocità angolare di O2 rispetto ad O1 la funzione del tempo ω 12 che ad ogni
T
istante t associa la croce di Gibbs di Ṁ12 M12 .
Proposizione 238 Della legge di trasformazione galileiana delle velocità. Si consideri una particella
materiale P in moto rispetto gli osservatori O1 ed O2 rispettivamente con velocità v1 e v2 . Vale la seguente
relazione fra le introdotte funzioni vettoriali e matriciali della variabile t,
(O) (O)
v1 = M12 v2 + v12 + ω 12 ∧ (r1 − r12 ), (16.28)
dove r1 rappresenta il vettore posizione rispetto ad O1 della particella P.
Dimostrazione Derivando la eq. (16.2) rispetto al tempo si ha
(O)
v1 = Ṁ12 r2 + M12 v2 + v12 . (16.29)
Se si ricava poi r2 ancora dalla eq. (16.2)
³ ´ ³ ´
−1 (O) T (O)
M12 r1 − r12 = M12 r1 − r12 = r2 , (16.30)
e sostituisce nella (16.29), usando la proposizione 237 e la definizione di velocità angolare si ottiene la (16.28).
Proposizione 240 Si consideri un continuo B in moto rigido e due particelle materiali O e P (la generica
particella materiale di B). Fissato un istante t, siano rO ed rP i vettori posizione di O e di P come misurati
da O. Se v(rO , t), v(rP , t) denotano rispettivamente le velocità euleriane delle particelle O e P , intese come
vettori applicati nei posti caratterizzati dai vettori rO ed rP , esiste un unico vettore ω(t) (detto velocità
angolare di B) tale che:
La formula precedente definisce, ad ogni istante t,8 il generico campo spaziale di velocità atto di moto rigido.
Il posto rO (ma anche la particella materiale O che lo occupa all’istante t) è detto polo dell’atto di moto.
Si noti che la (16.35) permette di estendere il campo delle velocità in un atto di moto rigido anche in posti
dello spazio in cui nessuna particella materiale di B si venga a trovare nell’istante considerato.
Un atto di moto rigido quindi risulta caratterizzato dai due vettori ω(t) e v(rO , t) (noti in termini di sei
parametri scalari): fissata la velocità angolare del corpo rigido e la velocità di una sua particella materiale, la
velocità di un qualsiasi altra particella è univocamente determinata come specificato dalla relazione (16.35).
Esistono esattamente ∞6 atti di moto rigido a partire da un configurazione attuale di un continuo B. Si noti
che i gradi di libertà di un continuo rigido sono 6.
Proposizione 241 La formula di rappresentazione (16.35) ed il vettore velocità angolare non dipendono dalla
scelta della particella O.
Considerati due atti di moto rigido, per la proposizione precedente, essi possono essere rappresentati
rispetto lo stesso polo come segue
Chiameremo composizione dei due atti di moto l’atto di moto (che risulta banalmente rigido) ottenuto
sommandoli; in formule:
v1+2 (rP , t) := v1 (rP , t) + v2 (rP , t) = v1 (rO , t) + v2 (rO , t) + (ω 1 (t)+ω 2 (t)) ∧ (rP − rO ). (16.39)
In particolare la somma di atti di moto rigidi traslatori (risp. rotatorio) è traslatorio (risp. rotatorio).
La velocità di traslazione (risp.rotazione) dell’atto di moto somma è la somma delle velocità di traslazione
(risp.rotazione) componenti.
Chiameremo atto di moto (puramente) traslatorio un atto di moto rigido per cui ω(t)= 0. Chiameremo
atto di moto (puramente) rotatorio un atto di moto rigido per cui i) il vettore velocità angolare è non nullo
ii) esiste una particella materiale P̂ ∈ B la cui velocità è nulla. Chiameremo asse istantaneo di rotazione
in un atto di moto puramente rotatorio la retta r di posti
© ª
r := r : r = rP̂ + λω, λ ∈ IR . (16.40)
Dalla definizione e dalla (16.35) risulta ovvio che tutte le particelle materiali eventualmente localizzate
nei posti che formano l’asse istantaneo di rotazione hanno velocità nulla. L’asse istantaneo di rotazione è un
insieme di posti che può variare nel tempo ed in istanti diversi può essere “costituito” od “occupato” da diversi
sottoinsiemi di particelle materiali appartenenti a B o anche non occupato da nessuna di tali particelle.
La formula di rappresentazione (16.35) permette di dimostrare con semplici ragionamenti algebrici il
classico teorema, dovuto a Mozzi.
Proposizione 242 Ogni atto di moto rigido é un atto di moto elicoidale, cioé la composizione di un moto
puramente traslatorio (con velocità di traslazione parallela ad ω) e di uno puramente rotatorio.
8 Quando non ci sia possibilità di confusione la variabile t verrà omessa.
196 CAPITOLO 16. CINEMATICA GALILEIANA
Se ω = 0 allora il teorema è ovvio. Sia ω 6= 0. Si cominci con il dimostrare che l’insieme dei posti
R := {r : v(r)k ω} , (16.42)
Ma lo scalare λ(r) si può facilmente determinare calcolando il prodotto scalare dell’ultima uguaglianza per ω:
v(r0 ) · ω
ω · v(r0 )+ω · [ω ∧ (r − r0 )] = λ(r)ω · ω ⇒λ(r) = . (16.44)
ω·ω
Quindi λ(r) è indipendente da r. Conseguentemente
½ µ ¶ ¾
v(r0 ) · ω
R = r : v(r0 )+ω ∧ (r − r0 ) = ω . (16.45)
ω·ω
Dimostrazione Che un atto di moto rigido abbia la proprietà di essere equiproiettivo è facilmente
verificato dalla (16.35). Infatti, essendo il prodotto vettore ortogonale ai suoi fattori, si ha:
Per la dimostrazione della proprietà inversa si cominci ad utilizzare ripetutamente la (16.50) insieme alla
proposizione 202 per costruire la seguente catena di uguaglianze, che vale per ogni terna di posizioni p1 , p2 e
p3
Si definisca poi l’applicazione M che ad ogni coppia (p, v) associa il vettore U(p + v) − U(p), così da potere
esprimere la (16.52), ponendo
p3 = p, v =p1 − p3 , u =p2 − p3 , (16.53)
equivalentemente nel seguente modo
La suggestiva relazione appena ottenuta, ovviamente valida, fissato il punto p, per ogni coppia di vettori u e
v comporta che l’applicazione M è lineare rispetto la variabile v. Infatti scelta una base (e1 , e2 , e3 ) la (16.54)
comporta la seguente catena di uguaglianze
Si noti come la dimostrazione della linearità della M (p, v) ricalchi la dimostrazione della proposizione 103
che stabilisce la linearità di applicazioni che conservano il prodotto scalare. Per completare la dimostrazione
basti notare che l’applicazione lineare M, stante la (16.54), è ovviamente antisimmetrica e non dipende dalla
variabile p. Infatti
DEFORMATICA
Scopo di questo capitolo è lo studio di quei modelli dei sistemi di corpi che riescono a descrivere alcuni
dei fenomeni coinvolti nella loro deformazione. L’insieme di tali modelli include almeno tre sottoclassi che
discuteremo qui. Nella prima diverse parti dei corpi considerati sono modellate come continui rigidi, cosicchè
la loro deformabilità risulti modellata dalle variazioni d’assetto e traslazioni relative degli introdotti continui
rigidi: in questo modo si introduce un modello di sistema articolato di continui rigidi. Nella seconda sottoclasse
si considerano sistemi di corpi snelli che interagiscono fra loro e con il mondo esterno in modo tale che le uniche
deformazioni cui sono soggetti siano allungamenti od accorciamenti: stiamo parlando del modello di struttura
reticolare. Infine nella terza sottoclasse il corpo considerato è modellato come continuo tridimensionale di
Cauchy il cui insieme dei piazzamenti ammissibili coincide con l’insieme dei piazzamenti di classe almeno C 1
rispetto alla variabile Lagrangiana X che ne etichetta la generica particella materiale nella configurazione di
confronto.
L’applicazione che associa ad ogni elemento di A i corrispondenti valori delle coordinate lagrangiane è detta
carta.
Non sempre è possibile caratterizzare globalmente l’insieme delle configurazioni di un sistema per mezzo
di una unica scelta di parametri lagrangiani. Questa circostanza si verifica già nel caso appena considerato
del modello continuo rigido: non esiste infatti una corrispondenza biunivoca e bicontinua fra tutta la sfera
S 2 e l’intero IR2 . È quindi chiaro che la geometria degli spazi IRn non è abbastanza complessa per descrivere
lo spazio delle configurazioni anche quando si introducano modelli finito dimensionali. Il lettore che, arrivato
a questo punto, abbia delle difficoltà ad immaginare la struttura geometrico-differenziale dello spazio delle
configurazioni è invitato a passare subito alla lettura dell’ultima sezione di questo capitolo.
199
200 CAPITOLO 17. DEFORMATICA
Diremo che un modello finito dimensionale è ad n gradi di libertà se nel suo ambito lo stato del sistema
descritto è caratterizzato per mezzo di esattamente n coordinate lagrangiane.
tali che lo stato caratterizzato da q è permesso dal vincolo se e solo se sono verificate le k equazioni:
L’intero k è detto molteplicità del vincolo e rappresenta il numero di gradi di libertà del sistema soppressi
dall’applicazione del vincolo.
In definitiva possiamo riguardare un vincolo come una relazione che seleziona un sottoinsieme V dello
spazio delle configurazioni S; V viene detto insieme degli stati permessi, che stante l’indipendenza delle fi ,
risulta essere una ipersuperficie nello spazio delle configurazioni S.
Talvolta è però necessario tradurre l’azione di un vincolo con un sistema di disequazioni del tipo:
⎧
⎨ f1 (q1 , ..., qn ) ≤ 0,
⎪
.. (17.4)
⎪ .
⎩
fk (q1 , ..., qn ) ≤ 0.
Il vincolo si dirà unilaterale se almeno una delle relazioni è una disequazione stretta, si dirà bilaterale se
tutte le relazioni sono uguaglianze.
Sia data una particella materiale costretta a muoversi in un semipiano. Scelto un opportuno sistema di
riferimento nello spazio delle posizioni lo stato della particella materiale libera è caratterizzato dalla terna di
coordinate x, y, z ed il vincolo ad esso applicato dalle relazioni
½
z=0
. (17.5)
x≤0
17.3 Moto.
Nella sezione precedente non si sono considerati fenomeni di passaggio da uno stato ad un altro. Ancora una
volta le idee dell’analisi matematica ci forniscono un valido aiuto nel formalizzare il concetto di evoluzione
regolare nel tempo. Si ricorderà che la scoperta del calcolo differenziale e dell’importanza dei concetti di
continuità e differenziabilità di una funzione è attribuita generalmente a Newton, il quale fu indotto a svilup-
parli per la necessità di descrivere il moto di corpi nello spazio puntuale euclideo dei posti. La richiesta di
continuità per la funzione moto fu giustificata da Newton affermando che: “Natura non facit saltus”. Questa
affermazione che fu pensata come valida universalmente è stata smentita da quelle evidenze sperimentali che
hanno portato allo sviluppo della meccanica quantistica. Che poi non si possa in generale richiedere che la
funzione moto sia differenziabile è chiara quando si pensi ai fenomeni d’impatto ed urto fra corpi.
1 Una k − pla di funzioni si dice indipendente quando la sua matrice Jacobiana ha rango massimo.
17.3. MOTO. 201
che associa ad ogni istante t uno stato rappresentato dalla n-pla ordinata q(t).
Solitamente si limita l’ambito di applicabilità dei modelli sviluppati restringendosi al caso di leggi orarie
che siano almeno due volte differenziabile rispetto al tempo. In alcuni modelli si introducono anche i cosiddetti
moti impulsivi, che sono moti una volta differenziabili e due volte differenziabili a tratti: in alcuni istanti di
tempo al sistema considerato sono applicati impulsi che fanno saltare il vettore velocità. Questi modelli sono
necessari, per esempio, nella descrizione degli urti fra corpi.
Il vettore che si ottiene derivando la legge oraria rispetto al tempo é detta velocità lagrangiana:
µ ¶
dq1 dq2 dqn
q̇L = , ,..., . (17.8)
dt dt dt
Ovviamente i vincoli, selezionando fra tutti gli elementi dello spazio degli stati quelli permessi, determinano
anche l’insieme degli atti di moto permessi. In altre parole, assegnate le funzioni di vincolo in un dato modello
bisogna aspettarsi che anche le velocità lagrangiane risultino selezionate, alcune di esse risultando proibite. Il
passaggio da uno stato permesso ad uno stato proibito non è permesso.
Infatti vale la seguente:
Proposizione 244 Le velocità lagrangiane permesse ad un sistema vincolato sono ortogonali al gradiente
della funzione di vincolo e quindi tangenti alla ipersuperficie V.
da cui, derivando rispetto al tempo ed usando la regola di derivazione delle funzioni composte, si ottiene:
∂f dq1 ∂f dq2 ∂f dqn
+ + ··· + = 0, (17.10)
∂q1 dt ∂q2 dt ∂qn dt
cioè (cfr. (14.309); si noti che tale formula è valida nel caso n-dimensionale in quanto non è coinvolto il
prodotto vettore):
gradf · q̇L = 0. (17.11)
Quest’ultima relazione dimostra l’asserto.
Concludiamo questa sezione con alcuni esempi, alcuni dei quali tratti da modelli di fenomeni non meccanici.
il vincolo (di molteplicità 1) cui è soggetto. Le velocità lagrangiane permesse sono tangenti alla superficie
sferica cui P è vincolato.
• Se P è vincolato a muoversi all’interno della regione la cui frontiera è la sfera di equazione (17.12) e nel
piano coordinato x1 = 0 allora il vincolo è unilaterale ed è rappresentato dalle relazioni
q1 p1 + q2 p2 ≤ M. (17.14)
• Si considerino due masse di solvente m1 , m2 . Supponiamo di dissolvere in tutte e due le masse due soluti
diversi e di considerare solo fenomeni di evoluzione quasi statica, in cui le densità di soluto e solvente
siano costanti nello spazio. Come parametri lagrangiani del sistema possiamo, allora, considerare le
concentrazioni massiche dei soluti cij . Tale concentrazione è definita come il rapporto fra la massa del
soluto j dissolto e la massa del solvente i. Supponiamo infine di collegare le due soluzioni per mezzo
202 CAPITOLO 17. DEFORMATICA
di un setto permeabile solo ai soluti e che inizialmente nella massa m1 (risp. m2 ) siano dissolte la
massa µ11 (risp.µ21 ) del soluto di tipo 1 e la massa µ12 (risp.µ22 ) del soluto di tipo 2. Il vincolo sulle
concentrazioni che deve essere considerato se nessuna massa di soluti è aggiunta negli istanti successivi
è dato dalle (j = 1, 2):
X2 2
X
mi cij = µij . (17.15)
i=1 i=1
Queste equazioni rappresentano matematicamente le leggi di conservazione della massa dei soluti.
Cerniera sferica.
Si tratta di un vincolo in grado di fissare la posizione di un punto O di B: elimina tre gradi di libertà (vincolo
con molteplicità 3). I gradi di libertà residui sono 3, una possibile scelta di coordinate lagrangiane per il
sistema vincolato è dato dagli angoli di Eulero di B, l’insieme degli atti di moto rigidi permessi al sistema
è l’insieme delle rotazioni intorno ad O con velocità angolare qualsiasi. Le equazioni che rappresentano tale
vincolo sono
rO = r̄O , vO = 0. (17.16)
2 Una definizione matematicamente più precisa di questo concetto è data in qualsiasi testo di Scienza delle Costruzioni.
17.4. SISTEMI ARTICOLATI DI CONTINUI RIGIDI. 203
Carrello.
Il vincolo carrello obbliga un punto P di B, a muoversi su una superficie Σ ⊂ P. Lo stato del continuo B
è determinato conoscendo i) la posizione del punto P su Σ, caratterizzata da due coordinate e ii) altri tre
parametri lagrangiani, caratterizzanti l’assetto di B in P. Il vincolo ha molteplicità 1: al continuo rimangono
5 gradi di libertà. Se fΣ è la funzione che caratterizza la superficie Σ, le equazioni del vincolo sono:
Cerniera Cilindrica.
La cerniera cilindrica fissa la posizione di tutti i punti sostanziali di un continuo rigido appartenenti ad un
asse, detto asse di rotazione, lasciando al continuo l’unica possibilità di ruotare attorno all’asse stesso. La
cerniera cilindrica ha molteplicità 5. Sia O un punto appartenente all’asse di rotazione, di versore e, e siano
scelti gli angoli di Eulero in modo tale che θ rappresenti la rotazione intorno e, le equazioni del vincolo sono
date da
rO = r̄O , ϕ = ϕ̄, ψ = ψ̄; vO = 0, ω k e. (17.18)
Glifo.
È un vincolo che permette le traslazioni parallele ad una determinata retta r di versore e. Il glifo ha molteplicità
5 e lascia al continuo rigido un solo grado di libertà, una possibile scelta della coordinata lagrangiana essendo
l’ascissa della proiezione rP su r della posizione di un punto prefissato P di B. Le equazioni del vincolo sono
Moto piano.
Un continuo rigido è soggetto a tale vincolo quando tre dei suoi punti materiali, P1 , P2 , P3 , (non allineati)
sono costretti a giacere in un certo piano euleriano π ⊂ P di normale n. Lo stato del sistema è caratterizzato
dalla posizione di uno dei tre punti, per esempio P1 , e da una rotazione intorno ad n: tale rotazione può
essere caratterizzata fissando una retta r in π e misurando l’angolo fra la retta r ed il segmento (rP2 − rP1 ) .
Il sistema ha dunque tre gradi di libertà ed il vincolo applicato molteplicità tre.
Proposizione 245 Nota la velocità v(pO ), con pO ∈ π, e se λ 6= 0 (cioè se il moto non è puramente
traslatorio) la posizione del punto c ∈ π è data dalla
∀v kπ n ∧ v kπ e (n ∧ v) · v =0.
All’espressione (17.21) può essere dato significato anche quando λ = 0: il centro istantaneo di rotazione
è all’infinito, nel piano π e nella direzione ortogonale a v(pO ). Infatti se, secondo i metodi della geometria
proiettiva, definiamo i punti all’infinito in un piano π come le classi di equivalenza delle direzioni parallele in
π allora il centro istantaneo di rotazione è definito anche per moti traslatori piani.
La seguente proposizione permette di determinare il centro istantaneo di rotazione di un atto di moto
piano decomponendolo additivamente in moti piani i cui centri di rotazione siano noti.
Proposizione 246 Consideriamo un atto di moto rigido piano composto, cioè somma di due atti di moto
rigido piani con centri istantanei di rotazione rispettivamente dati da c1 e c2 . Il centro di rotazione dell’atto
di moto composto si trova sulla retta congiungente c1 e c2 .
La dimostrazione si ottiene nel caso in cui entrambi le λi siano non nulle rappresentando gli atti di moto
addendi rispetto ai loro centri di rotazione
e notando che il suo centro di rotazione c verifica la relazione (ottenuta moltiplicando vettorialmente la
precedente per n)
λ1 (c − c1 ) = −λ2 (c − c2 ). (17.23)
Nel caso in cui λ1 → 0 la (17.21) implica che nel limite (cioè quando il moto è traslatorio) allora il centro
di rotazione si trova all’infinito nella direzione ortogonale a v(O). Quindi se λ1 = 0 e λ2 6= 0, cioè se c1 è
all’infinito in una direzione e allora la (17.22) diventa
λ2 (c − c2 ) = −α1 e, (17.25)
che prova l’asserto nel caso considerato. Siano infine entrambi i coefficienti λi = 0, cioè siano sia c1 e c2 punti
all’infinito nelle direzioni e1 ed e2 . Allora l’atto di moto composto è una traslazione cioè ha centro di rotazione
all’infinito, che ovviamente appartiene alla retta all’infinito (definita, in geometria proiettiva, come l’insieme
dei punti all’infinito).
17.4. SISTEMI ARTICOLATI DI CONTINUI RIGIDI. 205
Questa condizione si può esprimere affermando che l’apparato vincolare è tale da generare dipendenza tra
i gradi di libertà di almeno una coppia di continui rigidi definendo una relazione tra almeno una coppia di
parametri lagrangiani riferiti ai suddetti continui.
Si noti che in presenza di un vincolo interno uno stato qai (o rispettivamente un atto di moto) del generico
continuo Bi può essere permesso o proibito a seconda di quale stato sia assunto da (risp. quali atti di moto
stiano compiendo) gli altri continui costituenti S.
Per illustrare la definizione data presentiamo alcuni esempi di vincoli interni.
Cerniera interna.
Si considerino due punti sostanziali P1 e P2 rispettivamente appartenenti a due continui rigidi B1 e B2 .
Possiamo caratterizzare lo stato dei due continui per mezzo delle coordinate lagrangiane
che rappresentano la posizione dei punti P1 e P2 e gli angoli di Eulero che caratterizzano l’assetto di B1 e B2 .
Una cerniera interna applicata ai punti P1 e P2 è un vincolo che impone la condizione
Quindi una cerniera interna, lasciando indipendenti gli assetti dei continui che collega, assicura che i due punti
di contatto hanno sempre la stessa posizione: la sua molteplicità è tre. Quando, però, sia preposto il vincolo
moto piano ai continui B1 e B2 la sua molteplicità si riduce a due.
Se invece la cerniera interna è applicata ad n continui rigidi nei punti Pi (i = 1, ..., n) allora essa, lasciando
indipendenti gli assetti di tutti i continui che collega, è rappresentata dalle equazioni
e quindi la sua molteplicità è 3 (n − 1) . Di nuovo, nel caso in cui tutti i continui siano già soggetti al vincolo
di moto piano, si ha che la molteplicità si riduce a 2 (n − 1) .
Un glifo interno impone la sovrapposizione spaziale 3 di due rette di particelle sostanziali dei continui cui è
applicato. Equivalentemente si può dire che impedisce le variazioni dell’assetto relativo dei due continui e
che costringe un punto materiale del secondo continuo ad piazzarsi sempre su una retta sostanziale del primo
continuo. Ovviamente la molteplicità di un glifo interno applicato a due continui già soggetti al vincolo di
moto piano è due.
x2 + y 2 + z 2 − R2 = 0 (17.33)
dove (x, y, z) denotano le coordinate del vettore posizione di P in un sistema di coordinate di origine il centro
della sfera S di raggio R.
Ad esso si aggiunga un altro vincolo di molteplicità 1 che permette tutte le posizioni appartenenti al piano
π, la cui equazione, nel medesimo sistema di coordinate, è data da
ax + by + cz + d = 0. (17.34)
Insieme i due vincoli hanno molteplicità 2 quando la loro intersezione sia una conica non degenere γ. I g.d.l.
residui infatti sono 1, essendo la coordinata lagrangiana ascissa curvilinea lungo γ sufficiente a caratterizzare
lo stato del sistema. Inoltre gli atti di moto permessi a partire dalla posizione permessa p sono velocità
parallele alla retta tangente a γ in p, che è l’intersezione del piano π con il piano tangente ad S in P . T
Tuttavia se π è tangente ad S i g.d.l. residui sono 0, essendo permessa al sistema solo la posizione π S,
mentre gli atti di moto permessi sono ∞2 , cioè tutte le velocità parallele a π. In questo caso il sistema è
singolare perchè per esso vale la relazione:
g 6= d. (17.35)
L’esempio discusso ci permette di osservare che nello studio dei sistemi articolati di corpi rigidi (come in
più generalmente in qualsiasi sistema lagrangiano soggetto a più vincoli) i g.d.l. residui non possono essere
calcolati sottraendo ai g.d.l. di partenza del sistema la somma delle molteplicità dei vincoli applicati.
La precedente affermazione è ovviamente collegata alla seguente altra di natura (apparentemente) più
astratta:
Dato un sistema lagrangiano ad n gradi di libertà, si applichino ad esso due vincoli di moltepli-
cità rispettivamente k1 e k2 . L’insieme di tutte le k1 + k2 equazioni di vincolo unione degli insiemi
delle equazioni di ciascuno dei due vincoli non ha necessariamente una matrice Jacobiana di rango
massimo.
• Quadrilatero articolato: Si considerino quattro aste rigide Ai (i = 1, ..4) di uguale lunghezza già vincolate
ad avere un moto piano. Se Ai e Bi sono gli estremi di Ai assumiamo che Bi e Ai+1 (A5 ≡ A1 ) siano
collegati da una cerniera cilindrica. Il sistema prima dell’applicazione dei vincoli cerniera aveva 12 g.d.l.
I vincoli applicati hanno ciascuno molteplicità 2, e quindi la somma delle molteplicità dei vincoli applicati
è 8. D’altra parte il sistema quadrilatero articolato ha 4 g.d.l. Infatti il suo stato è caratterizzato per
esempio dalla posizione di A1 , dall’assetto di A1 e dall’angolo formato dalle aste A1 ed A4 . Nell’esempio
considerato il numero dei g.d.l. residui è uguale alla differenza fra i g.d.l. di partenza e la somma della
molteplicità dei vincoli imposti.
• Asta in scorrimento controllato da due glifi: Consideriamo un’asta (in moto piano) le cui estremità
siano vincolate da due glifi le cui rette di scorrimento sono parallele. Dopo l’applicazione di due vincoli
ciascuno di molteplicità 2 il sistema, che in partenza aveva 3 g.d.l., risulta tuttavia avere 1 g.d.l. Nel
caso in esame per annullare 3 g.d.l. non sono stati sufficienti vincoli le cui molteplicità hanno somma 4 :
tuttavia il numero dei g.d.l residui è uguale alla dimensione dello spazio degli atti di moto consentiti.
• Doppio pendolo: Due aste sono collegate fra loro da una cerniera interna, mentre l’estremità libera di
una di esse è incernierata al suolo. Fissata una retta di posti r, lo stato del sistema è caratterizzato dai
due angoli α1 ed α2 formato dagli assi delle due aste con r.
208 CAPITOLO 17. DEFORMATICA
• Arco a tre cerniere spaziale degenere: Un arco a tre cerniere (cilindriche) formato da due aste di uguale
lunghezza in cui θ = 0 è un sistema ad un grado di libertà per cui g = d sebbene la somma delle
molteplicità dei vincoli sia 12 cioè uguale ai g.d.l. dei continui cui sono applicati.
• Asta incastrata alle due estremità: È un sistema per cui g = d = 0. Tuttavia la somma delle molteplicità
dei vincoli applicati è doppia rispetto ai g.d.l. del continuo cui sono applicati.
Sistemi singolari.
• Sistemi senza g.d.l. a cui sono permessi atti di moto: a) Si considerino due aste rigide Ai (i = 1, 2) ,
già vincolate ad avere un moto piano, e siano Ai e Bi gli estremi di Ai . Supponiamo che una cerniera
interna connetta A2 e B1 , che un incastro sia applicato in A1 ed un carrello in B2 ,e che i due segmenti
che rappresentano le posizioni delle due aste siano paralleli. Se la direzione di scorrimento del carrello
in B2 è ortogonale alle aste allora il sistema non ha gradi di libertà ma i vincoli applicati permettono
l’atto di moto rotazione di A2 intorno al punto pA2 = pB1 . In questo caso g = 0, d = 1. Notare che la
somma della molteplicità dei vincoli applicati è pari a 6 (due volte moto piano) + 2 (cerniera interna
applicata in un moto piano) + 3 (incastro applicato in un moto piano) + 1 (carrello applicato in moto
piano) = 12 che è pari al numero dei gradi di libertà di due continui rigidi; b) Un arco a tre cerniere
per cui θ = π è un sistema in cui g = 0, d = 1; c) Un arco a tre cerniere formato da aste di lunghezza
diversa per cui θ = 0 è un sistema in cui g = 0, d = 1.
• Sistema per cui il numero dei g.d.l. ( > 0) è inferiore alla dimensione dello spazio degli atti di moto:
Lo stesso sistema descritto al punto a) precedente a cui si sostituisca all’incastro in A1 un glifo con
direzione di scorrimento parallela a quella del carrello in B2 . Il sistema ha un grado di libertà (come
coordinata lagrangiana si può scegliere, ad esempio, una ascissa lungo la retta di scorrimento del glifo)
ma i vincoli applicati permettono ∞2 atti di moto.
(detta funzione cinematica) r che associ ad ogni P ∈ b il suo vettore posizione (rispetto un dato osservatore)
quando la configurazione di b sia caratterizzata da una scelta di parametri lagrangiani
In altre parole una barra modella un corpo snello che si può deformare solo variando la sua dimensione
maggiore cosicchè il suo stato possa essere completamente caratterizzato da tale dimensione, dalla posizione
di una sua particella materiale e dalla sua orientazione spaziale.
Si noti che è possibile caratterizzare la configurazione di confronto di una barra b per mezzo di una terna
di vettori materiali (a1 , a2 , a3 ) con a3 parallelo al segmento “forma di confronto”. Di conseguenza l’assetto
attuale di b si potrà determinare anche per mezzo del piazzamento attuale (χt (a1 ), χt (a2 ), χt (a3 )) (si veda la
sezione 17.6.1 per la definizione della funzione piazzamento) della terna di vettori materiali (a1 , a2 , a3 ).
Si noti che non è sempre necessario introdurre, per descrivere l’insieme delle configurazioni di una barra,
l’intero spazio Ort(IR3 , IR3 ). Per esempio lo spazio S 2 è sufficiente a descrivere tutti i cinematismi che
dobbiamo tenere in conto quando alcune barre sono vincolate fra loro per mezzo di cerniere sferiche. In
questo caso sono prive di qualsiasi effetto le rotazioni di ciascuna barra intorno all’asse χt (a3 ).
Una possibile funzione cinematica per una barra è specificata nel seguente esempio.
Esempio 247 Barra elastica piana b uniformemente deformabile indifferente alle rotazioni intorno l’asse
χt (a3 ). Sia L la lunghezza a riposo della barra considerata. La sua configurazione è fissata dalle posizioni delle
sue estremità A e B. Quindi una possibile scelta delle sei necessarie coordinate lagrangiane è rappresentata
dai vettori delle coordinate delle posizioni rA ed rB
¡ ¢
q = xA xB yA yB zA zB . (17.38)
L’ipotesi di uniforme deformabilità per b, considerando l’ascissa curvilinea s ∈ [0, L] lungo la direzione a3 nella
configurazione di confronto (si assuma che tale ascissa abbia verso positivo dall’estremità A verso quella B)
come etichetta della generica particella P materiale di b, si può tradurre in formule introducendo la seguente
funzione cinematica:
s
rP (s) = rA + (rB − rA ) . (17.39)
L
Proposizione 248 Sia data una struttura reticolare formata da n aste bi , i = 1, ..n, e da m nodi, ciascuno
di vettore posizione rj , j = 1, .., m, rispetto ad un dato osservatore. Ogni configurazione di una struttura
reticolare può caratterizzarsi per mezzo di una scelta dei vettori rj . Il modello struttura reticolare ha quindi
dimensione 3m, nel caso generale, e dimensione 2m nel caso piano.
Dimostrazione La dimostrazione di quanto affermato è semplice. Infatti, nota la posizione di ogni nodo
della struttura, risulta determinata la posizione di ogni estremità delle barre bi , dal momento che le estremità
non vincolate da cerniere interne hanno posizione assegnata essendo vincolate per mezzo di cerniere al mondo
esterno. Quindi risulta nota sia la lunghezza che l’assetto (come elemento di S 2 ) di ogni barra bi . Si noti
che, poichè i vincoli interni sono tutte cerniere sferiche, la rotazione di ciascuna barra intorno al proprio asse
χt (a3 ) è irrilevante quando si voglia descrivere il comportamento dell’intera struttura.
dove ṙP e dmP denotano la velocità e la densità di massa in P. Siccome rP dipende dalle posizioni degli
estremi r1 ed r2 come specificato dalla funzione cinematica:
d ∂rP ∂rP
ṙP = [rP (r1 (t), r2 (t))] = ṙ1 + ṙ2 . (17.42)
dt ∂r1 ∂r2
Ne segue che:
µ ¶ µ ¶
∂rP ∂rP ∂rP ∂rP
ṙP (t) · ṙP (t) = ṙ1 + ṙ2 · ṙ1 + ṙ2 (17.43)
∂r1 ∂r2 ∂r1 ∂r2
"µ ¶T # "µ ¶T # "µ ¶T #
∂rP ∂rP ∂rP ∂rP ∂rP ∂rP
= ṙ1 · ṙ1 + ṙ2 · ṙ2 + +2ṙ1 · ṙ2 .
∂r1 ∂r1 ∂r2 ∂r2 ∂r1 ∂r2
dove il campo (s) rappresenta la densità di massa per unità di linea della barra b nella configurazione di
confronto.
Se supponiamo ora esplicitamente l’ipotesi di uniforme deformabilità come espressa dalla (17.39), sono
allora immediate seguenti relazioni (1I rappresenta il tensore identità definito nello spazio delle velocità
lagrangiane):
∂rP (s) ³ s´ ∂rP (s) s
= 1− 1I, = 1I. (17.45)
∂r1 L ∂r2 L
Calcolando successivamente i seguenti integrali
Z µ ¶T Z L³
∂rP ∂rP s ´2 L
ds = 1− 1Ids = 1I,
b ∂r1 ∂r1 0 L 3
Z µ ¶T Z L ³ ´2
∂rP ∂rP s L
1Ids = 1Ids = 1I, (17.46)
b ∂r2 ∂r2 0 L 3
Z µ ¶T Z L ³ ´³ ´
∂rP ∂rP s s L
ds = 1− 1Ids = 1I,
b ∂r1 ∂r 2 0 L L 6
l’energia cinetica T può in definitiva essere rappresentata per mezzo di una matrice a blocchi
⎡ ⎤
∙ ¸ 1 ∙ ¸
L ṙ1 ⎢ 1I 2 1I ⎥ ṙ1
T = ·⎣ 1 ⎦ , (17.47)
3 ṙ2 1I 1I ṙ2
2
o nelle forme esplicite:
L³ ´
T = kṙ1 k2 + kṙ2 k2 + ṙ1 · ṙ2
6 Ã !
° °2
L °° ṙ1 + ṙ2 ° 1
° + kṙ1 − ṙ2 k . 2
= (17.48)
3 ° 2 ° 4
La seconda delle ultime uguaglianze permette di rappresentare l’energia cinetica di una barra uniforme-
mente deformabile in termini dell’energia cinetica legata al moto del baricentro e dell’energia cinetica dovuta
alla velocità di deformazione della barra stessa.
17.6. CINEMATICA DEI CONTINUI TRIDIMENSIONALI. 211
∂ χt i (XP )
Gradχt (XP ) = (ei ⊗ Ej ) . (17.52)
∂X j
La matrice Jacobiana relativa alla applicazione F è ovviamente data da
∂ χt i (XP )
F ij = . (17.53)
∂X j
Si noti che tale operatore associa ad un vettore materiale in C ∗ un vettore materiale in Ct . La richiesta
det F > 0, stante la proposizione 208, assicura l’esistenza dell’inversa di F in ogni intorno di XP :
F−1 = gradχ−1
t , (17.54)
dove grad è l’operatore gradiente rispetto alle coordinate spaziali xi . La rappresentazione nei sistemi di
coordinate spaziale e referenziale è data da
¡ ¢−1
−1 ∂ χt i (xP )
F (xP ) = j
(Ei ⊗ ej ) . (17.55)
∂x
Ricordiamo che i) una funzione è un diffeomorfismo quando essa è continua, a derivate continue e quando
la sua applicazione Jacobiana è non singolare ed a determinante positivo e ii) un sottoinsieme di uno spazio
puntuale affine è una regione regolare quando abbia volume non nullo, sia la chiusura di insiemi aperti e abbia
come frontiera delle superfici bidimensionali regolari ad area non nulla e dotate quasi ovunque di normale.
L’ipotesi di continuità della χt si può interpretare da un punto di vista meccanico affermando che ci
limitiamo a considerare piazzamenti attuali del continuo B che non producono tagli o dislocazioni a partire
dalla considerata configurazione di confronto. Per dare una interpretazione dell’ipotesi di differenziabilità sarà
più opportuno sviluppare ulteriormente la nostra trattazione.
212 CAPITOLO 17. DEFORMATICA
Talvolta, con un abuso di notazione che può confondere (o anche far inorridire) un matematico della scuola
del Bourbaki4 , si denota la applicazione Jacobiana F e la sua inversa con il simbolo
senza indicare esplicitamente la variabile tempo e confondendo gli elementi del codominio della funzione con
la funzione medesima.
un campo scalare materiale. La derivata di Ψ rispetto a t eseguita tenendo fissa la posizione X della particella
materiale XP ∈ C ∗
dΨ ∂Ψ
(X, t) =: Ψ̇ (X, t) = (X, t) , (17.57)
dt ∂t
è detta derivata materiale di Ψ. Utilizzando il trasporto χt è possibile introdurre la rappresentazione
spaziale od euleriana di Ψ:
¡ ¢
ΨS (x, t) := Ψ χ−1
t (x) , t , (17.58)
(si noti che la velocità euleriana introdotta nella (16.8) è la rappresentazione spaziale della velocità lagrangiana
introdotta nella (16.7)). Utilizzando la regola di derivazione delle funzioni composte e tenendo presente le
(16.6), (16.7), (16.8), la derivata materiale di ΨS è data da
Analogamente, se Ψ è un campo materiale a valori vettoriali, la derivata materiale della sua rappresen-
tazione spaziale ΨS è data da
∂ΨS
Ψ̇S (x, t) = (x, t) + [gradΨS (v)] (x, t) . (17.60)
∂t
dove dX rappresenta una variazione infinitesima di posizione nella configurazione di confronto, variazione che
ci permette di considerare una particella materiale vicina alla particella P ed F è un’applicazione lineare; più
precisamente essa rappresenta il differenziale di χt .
Per una discussione più approfondita del concetto di differenziale di una funzione definita in uno spazio
puntuale euclideo si rinvia alla sezione 14.3.
4 Nicolas Bourbaki è stato un generale francese il cui nome è stato utilizzato come pseudonimo da un gruppo di matematici
francesi ed americani nella loro serie monumentale di testi di sistemazione della matematica moderna. Il loro scopo dichiarato era
di fondare tutte le matematiche in maniera rigorosa, precisa ed esauriente. Sebbene questa scuola abbia influenzato enormemente
il pensiero matematico contemporaneo bisogna dire che non è riuscita a portare a termine la sua opera. Infatti la teoria delle
equazioni differenziali a derivate parziali ha fino ad ora resistito ad ogni tentativo di formulazione Bourbakista.
17.6. CINEMATICA DEI CONTINUI TRIDIMENSIONALI. 213
L’applicazione F calcolata nel punto XP permette di determinare il piazzamento attuale di vettori infinitesimi
di particelle materiali aventi origine in XP . Nel seguito, ove possibile, di eviterà di esplicitare la dipendenza
di F dal punto materiale XP .
Consideriamo tre vettori infinitesimi ui , i = 1, 2, 3, applicati in XP . Come è noto dalla sezione 13.2, il
prodotto triplo [u1 · (u2 ∧ u3 )] rappresenta il volume del parallelepipedo U di spigoli i vettori ui . Stante la
(17.62) l’insieme delle particelle materiali in U si piazzerà nella configurazione attuale nel parallelepipedo di
spigoli i vettori F (ui ) , il cui volume è dato dal prodotto triplo
Nella derivazione della precedente uguaglianza si è utilizzata la definizione di determinante data nella
(13.57). La relazione ottenuta con ragionamenti euristici6 suggerisce la validità della seguente
Proposizione 249 Dato un diffeomorfismo f definito in un dominio D incluso in uno spazio puntuale
euclideo n-dimensionale En a valori in En e detto F il suo differenziale vale la seguente formula, detta del
cambiamento di variabile per il calcolo degli integrali:
Z Z
dV = det FdV. (17.64)
f (D) D
Ovviamente (si ricordino le considerazioni svolte nel Capitolo 15 ed il brano, ivi citato, de Il Metodo di
Archimede di Siracusa) le considerazione qui svolte non sono una dimostrazione della precedente proposizione,
ma ne suggeriscono l’enunciato. Una dimostrazione rigorosa può essere trovata, per esempio, nel testo di analisi
[20].
La citata proposizione, quando interpretata nell’ambito della teoria dei continui tridimensionali deforma-
bili, insieme alle considerazioni sviluppate in questa sottosezione, permette una suggestiva interpretazione del
tensore di deformazione spiegando in particolare la condizione (17.50). Infatti richiedere che una data parte
del continuo abbia volume positivo nella configurazione attuale se e soltanto se ha volume positivo in quella
referenziale è equivalente, stante la (17.64), a richiedere che
Proposizione 250 Siano f ed f campi spaziali rispettivamente a valori scalari ed a valori vettoriali, e siano
GradfM = FT (gradf ) ,
(17.67)
GradfM = [gradf ] F.
fM = f ◦ χt , fM = f ◦ χt . (17.68)
per ogni vettore spaziale v. Dalle definizioni (17.50), (13.33) la precedente può essere riscritta come
dove v è la velocità euleriana (cfr. sezione 16.7.2). Dalla proposizione precede