Sei sulla pagina 1di 95

Carlo Bernardini / Orlando Ragnisco Paolo Maria Santini

,r~IETODI MATEMATICI DELLA FISICA

 

I.ri.:!. I'oli (' singolarita essenziali

69

l.r;.:\' Classificazione delle funzioni analitiche monodrome

71

. I.

I'o]idrolllia

72

I. 7.1. Rami di funzioni polidrome

72

1.7.2.

Superfici di Riemann

 

74

1. 7.3. Considerazioni topologiche sulle superfici di Riemann

77

2.

Integrazione delle funzioni di una variabile complessa

81

2.1.

Integrali di linea

81

2.2.

Il teorema integrale di Cauchy

 

84

2.2.1. Il caso dei domini semplicemente connessi

84

2.2.2. Primitive di una funzione analitica

 

89

2.2.3. II caso dei domini a connessione multipla

91

2.3.

La formula integrale di Cauchy e i suoi corollari

95

2.3.1. La formula integrale di Cauchy

 

95

2.3.2. Il teorema del massimo modulo

97

2.3.3. Corollari

99

2.3.4. Valore principale di un integrale

 

101

2.3.5. Formule di Plemelij-Sokhotski

104

2.4.

IntegraIi su archi

infiniti e infinitesimi. Lemma di Jordan

108

2.5.

La causalita e Ie relazioni di dispersione

 

114

3.

Rappresentazioni integrali e per serie

119

3.1. Considerazioni il1troduttive

119

3.2. Domini di convergenza

121

 

3.2.1. Convergenza ul1iforme e criteri di cOIlvergenza

121

3.2.2. Famiglie di funzioni

 

123

3.3. Teoremi di Liouville e di Morera

124

 

3.3.1. Teorerni di Liouville

124

3.3.2. Teorema di Morera

125

:3.4. Serie di Taylor e di Laurent

e prodotti

infiniti

127

 

3.4.1. Serie di Taylor

127

3.4.2. Serie di Laurent

 

132

3.4.3. Sviluppo di Mittag-Leffler e prodotti infiniti

137

3.5. Integrali con i residui

 

149

 

3.5.1. Il teorerna dei residui

149

3.5.2. Applicazioni del teorema dei residui

152

3.6. II prolungamento

analitico

154

 

3.6.1. Introduzione

154

3.6.2. Unicita del prolungamento

analitico

 

155

 

3.6.4. Il prolungamento

analitico; punti regolari e singolari

159

3.6.5. Esistenza del prolungamento analitico

 

163

3.6.6. Il principio

di Schwarz e la funzione di Jacobi

169

3.6.7. II prolungamento

analitico di rappresentazioni

integrali

173

3.6.8. Calcolo di integrali con i residui

176

3.7.

Sviluppi asintotici

194

3.7.1. La nozione di sviluppo asintotico

 

194

3.7.2. Operazioni su sviluppi a.sintotici

197

3.7.3. Rappresentazioni

integrali e sviluppi asintotici

199

3.7.4. Metodo di Laplace

204

3.7.5. II metodo dell a fase stazionaria

(0 di Kelvin 0 di Stokes) 207

3.7.6. II metodo

del punta di sella

208

3.7.7. Equazioni differenziali e sviluppi asintotici

212

4. Spazi lineari e operatori lineari

223

4.1. Linearita. e non-linearita. in fisica

223

4.2. vettoriali di dimensione finita

Spazi

229

4.2.1.

Spazi vettoriali e vettori colonna

229

4.2.2.

Operatori lineari e matrici

237

4.2.3.

Spazi duali e vettori riga

245

4.2.4.

Basi; trasformazioni e proprieta invarianti

247

4.2.5.

Proprieta. spettrali di operatori lineari

252

4.2.6.

Spazi euclidei

264

4.2.7.

Matrici hermitiane, unitarie e normali

270

4.2.8.

Le matrici di Pauli

280

4.2.9.

Rappresentazione

polare di una matrice

281

4.2.10 Funzioni di matrici

282

4.3. Spazi lineari astratti

286

4.3.1. Considerazioni introduttive

286

4.3.2. Spazi

lineari: definizione e proprieta

287

4.3.3. Spazi metric!

290

4.3.4. Spazi normati

302

4.3.5. Spazi

con prodotto scalare (0 euclidei)

303

4.4. Funzionali lineari e distribuzioni

311

4.4.1. Nozioni preliminari sugli operatori lineari

311

4.4.2. Funzionali lineari su spazi normati qualsiasi

312

4.4.3. Distribuzioni

323

4.5. Operatori lineari

353

4.5.1. Esempi di operatori lineari

354

4.5.2. Algebra degli operatori lineari

356

4

Spazi lineari e operatori lineari

I problemi fisici determinati dallo studio dei fenomeni pili comuni sono

spesso rappresentati nella forma di equazioni di evoluzione nel tempo di una 0 pili variabili caratterizzanti il sistema in esame. A prima vista, questi problemi sembrano appartenere a due distinte categorie. La prima e quell a della evoluzione di un sistema "preparato" in una confi- gurazione non d'equilibrio stabile mediante l'imposizione di "condizioni iniziali": a partire da quelle condizioni, il sistema evolve "spontanea- mente" senza bisogno di sollecitazioni esterne e, generalmente, nei casi

realistici finisce con il riportarsi a qualche configurazione d'equilibrio

a causa della dissipazione di energia. La seconda categoria di problemi

corrisponde invece al caso in cui un sistema in equilibrio stabile viene sollecitato con continuita da un agente esterno (input), generando se- gnali di risposta (output) che vengono osservati dallo sperimentatore mediante l'analisi del comportamento nel tempo delle variabili carat- terizzanti. Esempi del primo tipo sono: un pendola che e lasciato and are da una posizione pill alta di quella corrispondente alla quota minima, oppure un gas inizialmente reso non spazialmente uniforme in densita 0 temperatura. Esempi del secondo tipo sono: un circuito elettrico sollecitato da un generatore 0 un solido irradiato con on de

sonore 0 elettromagnetiche (input), che rispondono rispettivamente con la corrente misurata in qualche elemento del circuito 0 generando nuove onde (output).

Per comodita di illustrazione, ci riferiremo per cominciare a problemi dell a seconda categoria. Supponiamo che il sistema 5' sia sollecitato

Se invece esso

e sollecitato da un diverso input 1 2 (t) rispondera con l'output R 2 (t).

da un input h(t)

e che risponda con un output RI(t).

Immaginiamo ora di sollecitare 5' con la sovrapposizione dei due in-

Quando accade che,

put precedenti, cioe

p~r qualunque coppia di input, la risposta sia la somma delle risposte

con l'input h(t)

+ h(t).

(output) R 1 (t) + R 2 (t), il sistema si dice lineare: questa descrizione e semplice e immediatamente comprensibile, e ha grande importanza pratica. Si dice allora che per i sistemi lineari vale il cosiddetto "prin- cipio di sovrapposizione", benche sia improprio chiamare "principio" una regola di classificazione. Quando invece il principio di sovrappo- sizione non vale, allora il sistema e classificato come non-lineare.

Della struttura generale delle relazioni input-output per i sistemi

parr. 1.2.3 e 2.4. Vogliamo ora os-

servare che anche per i problemi della prima categoria, corrispondenti cioe a sistemi preparati mediante opportune condizioni iniziali, e pos- sibile adottare una formulazione analoga introducendo, mediante op- portune funzioni "generalizzate" che tratteremo al successivo par. 4.4, sollecitazioni impulsive che simulano l'effetto "istantaneo" dell'atto di preparazione del sistema (talvolta questo atto di preparazione va sotto il nome di "regime balistico"). Accenniamo poi a un'altra caratte-

rizzazione dei sistemi in studio che, talvolta, e di qualche importanza pratica: se un sistema S e sollecitato da un input sinusoidale di fre- quenza qualsiasi e risponde sempre con un output che ha la stessa

frequenza dell'input, allora esso e lineare. Se invece nell'output sono presenti (anche) frequenze diverse da quell a dell a sollecitazione, allora si tratta di un sistema non-lineare. E un utile esercizio di riflessione rendersi conto di questa proprieta dei sistemi non-lineari; per quanta riguarda il caso dei sistemi lineari sollecitati, la proprieta e abbastanza elementare ma di portata non trascurabile, in quanto legata alla tec- nica di soluzione mediante scomposizione dell'input in componenti si- nusoidali e successiva ricomposizione dell'output (analisi di Fourier)

di cui parleremo diffusamente nel seguito (e a cui abbiamo gia fatto

cenno ai parr. 2.5 e 3.6.8): si tratta di uno degli strumenti pili po-

tenti nell'analisi dei problemi lineari, purtroppo non immediatamente efficace nel caso dei problemi non-lineari.

La rilevante attenzione dedicata ai sistemi fisici lineari ha almeno una buona motivazione pratica. L'ambiente terrestre e, nell'universo, abbastanza eccezionale: esso e a bassissima temperatura, prossima allo zero assoluto, a differenza dei molto pili comuni ambienti stellari. Sulla Terra coesistono sistemi solidi, liquidi e gassosi (elettricamente

neutri), a riprova del fatto che il contenuto energetico dei vari gradi di liberta che costituiscono la materia e molto basso rispetto alle energie

di legame dei costituenti. Al confronto, la materia stellare e costituita

quasi esclusivamente da materia ionizzata allo stato detto di "plasma"

in cui almeno i gradi di liberta dei costi~uenti atomici sono energeti~

camente molto eccitati. La materia terrestre e percio quasi sempre

lineari abbiamo gEt parlato nei

prossima a condizioni di equilibrio stabile, e Ie sollecitazioni che su

di essa esercitiamo con mezzi ordinari sono generalmente di piccola

entita, come e ben noto dai problemi pili comuni dell a dinamica ele- mentare. Lo scostamento dall'equilibrio, generalmente "piccolo", de- termina percio forze (generalizzate) di richiamo verso la configurazione

stabile, che so no di tipo elastico, cioe lineari.

Vi so no poi alcune teorie fondamentali della fisica,

come la teoria

di Maxwell dei campi elettromagnetici 0 la meccanica ondulatoria di

Schroedinger, che si presentano nei loro fondamenti come intrinseca- mente lineari, indipendentemente dalle circostanze in cui esse vengono applicate, cioe dallo stato dell'ambiente. Pertanto, 10 studio dei pro- blemi lineari ha un ruolo centrale in buona parte dello sviluppo delle conoscenze fisiche contemporanee, sia per motivi pratici che per motivi fondamentali. Ma vi sono anche - e da qualche decennio ricevono attenzione cre- scente - molti sistemi non-lineari di grande interesse. Per i risultati rilevanti dell'idrodinamica e dell'aerodinamica, per esempio, Ie tec- niche lineari appaiono insufficienti: un problema tipico e quello delIa turbolenza; una classe pili generale di problemi non-lineari e quell a che va sotto il nome di meteorologia. Un altro esempio e quello della relativita generale e dello studio dei problemi dei campi gravitazionali molto intensi e della cosmologia. Non ci occuperemo, se non occasio- nalmente e per cenni, di problemi non-lineari, perche riteniamo che la comprensione delle caratteristiche di quelli lineari sia un prelim in are indispensabile; ma vogliamo qui avvertire dell'importanza conoscitiva della non-linearita, che present a situazioni profondamente differenti da

quelle di cui qui prevalentemente ci occupiamo. II prototipo dei modelli di sistemi lineari e l'oscillatore armonico, eventualmente smorzato. Con Ie notazioni che abbiamo usato sopra per Ie relazioni input-output, l'equazione differenziale per un oscillatore

sollecitato da un

input I(t) e dell a forma

L'apice indica la derivata rispetto alIa variabile t (tempo); ,(> 0) e il coefficiente di smorzamento, positivo se rappresenta un trasferimento

di

energia (dissipazione) ai gradi di liberta del mezzo in cui l'oscillatore

e

immerso (ambiente) che, in questa schematizzazione fenomenolo-

gica, e rappresentato corne un bagno termico infinito: il carattere irre- versibile delIa dissipazione, in accordo con il secondo principio delIa ter-

proporzionalita dell a forza dissi-

pativa (attrito) alla derivata prima di R( t), che non e invariante per in-

modinamica, si puo riconoscere nella

v(~rsi()lw t<~lIlporale, a differenza degli altri due termini a primo membro

ddla [4.1]. Dunque, r e un parametro caratteristico delia interazione sisterna-arnbiente. Invece, w e qui il solo pararnetro caratterizzante

strettarnente il sistema e determinato

coefficiente k (detto t"alvolta "cost ante di accoppiamento"

tivi) e usato per sole ragioni dimensionali, cioe per rendere omogenee Ie unita a primo e secondo membro (anche se, ovviamente, pua dipendere

- a seconda di cia che definiamo input e cia

parametri interni del sistema simulato mediante I'oscillatore). La re-

lazione input-output associata a un'equazione come la con notazioni un po' diverse - e stata gia costruita al

geriamo di prendere la massima familiar ita con questo problema, che

fornisce la chiave interpretativa element are di un grandissimo numero

di problemi lineari.

fisica. Infine, il per ovvii rno-

dalla sua natura

che definiamo output

- dai

[4.1] - sebbenc

par.

2.4. Sug-

Vogliamo qui accennare ora a una semplice tecnica di approssimazione, dovuta a Krylov e Bogoliubov, che permette di affrontare il problema degli oscillatori perturbati da piccoli termini non lineari. Problemi di questo tipo sono abbastanza frequenti e la tecnica di Krylov e Bogoliubov ne de- scrive Ie caratteristiche di massima quando la non-linearita non e dominante, come nel caso di un pendola di ampiezza angolare non "piccola"nel senso galileiano, ma nemmeno troppo pili grande di un radiante. Considereremo per semplicita il caso senza dissipazione, doe con r = 0; inoltre, studie- remo Ie oscillazioni libere, prodotte da condizioni iniziali e non da una sol- lecitazione esterna kI(t). Al posta dell'equazione [4.1]' quella dell'osdlJatore perturbato sara

La non-linearita e rappresentata dalla funzione F(R, R'), delIa Quale sup- porremo sol tanto che tenda a zero, per R e R' che tendono a zero, pili rapidamente che con legge lineare. L'idea di Krylov e Bogoliubov e quell a di scrivere la soluzione in una forma analoga a quella dell'oscillatore armonico non perturbato dalla non linearita, cioe distinguendo un'ampiezza e una fase

Ora, pero, a differenza dal caso dell'oscillatore, l'ampiezza A e una funzione del tempo tela fase B non e necessariamente lineare in t. Se si deriva una volta l'equazione [4.3] si ottiene

Se nella derivata delIa fase si distinguono due parti, una dominante de-

terminata dal termine lineare nella [4.2], che sopravvive anche quando la non-linearita e assente, e l'altra "piccola" (come "piccola" sara, in qualche

La proposta di Krylov e Bogoliubov consiste nell'imporre che l'espressione [4.4] delia derivata prima di R(t) sia ancora esattamente come quella cor- rispondente all'oscillatore lineare, doe

Questo implica che tra A(t) e B(t) sussista una relazione differenziale che cancella i termini "piccoli"; la relazione, arbitraria ma lecita perche con la [4.3] e stato raddoppiato il numero delle incognite che, percio, non possono essere indipendenti, e, tenendo conto delia [4.5],

Derivando un'altra volta la [4.6] e utilizzando la [4.7], si ottiene, con un po' di semplice algebra, la seguente equazione differenziale

A'(t) = (~)F(AcoSB,~wAsinB)sinB

Questa equazione mostra intanto che, in assenza delia non-linearita, A'(t) si annulla, come deve nel caso dell'oscillatore armonico. Ora, se la non-linearita e debole, si puo supporre che Ie variazioni dell'ampiezza siano piccole su un "periodo", misurato qui da una variazione di 27r delia fase B, indipenden- temente dalla corrispondente variazione delia variabile t. La proposta di Krylov e Bogoliubov e quell a di sostituire al secondo membro delia [4.8] il suo valor medio sulla fase, immaginando che con buona approssimazione i valori di B siano distribuiti uniformemente su tutto l'intervallo (0, 27r) come nel caso dell'oscillatore armonico (per il Quale la fase e lineare nel tempo e tutti gli istanti sono equiprobabili). Una analoga procedura si puo seguin~ per la [4.7], sostituendo per A'(t) dalla [4.8] e ottenendo l'equazione

¢'(t) = (~A)F(AcoSB,~wAsinB)cosB

con < g( B) > il valor medio di una funzione g delia fase (cal-

colato ovviamente, per A costante, sull'intervallo di fase (0,27r) e per una distribuzione uniforme dei valori di B), la [4.8] e la [4.9] diventano:

Indicando

A'(t) = (~)Fl(A)

= (~) < F(AcosB,-wAsinB)sinB

>

Queste due equazioni rappresentano il risultato centrale dell'approssimazione di Krylov e Bogoliubov, che puo essere molto utile nell'analisi qualitativa di molti problemi non-lineari.

Naturalmente, il caso dell'oscillatore armonico e solo il pili frequente tra quelli che si incontrano in fisica element are. Nella forma in cui 10 abbiamo descritto, sia nella versione lineare che in quella pertur- bata che abbiamo analizzato nella semplice approssimazione di Krylov

e Bogoliubov, esso rappresenta un tipico problema dinamico in una

dimensione. Tuttavia, come vedremo nei paragrafi successivi, i problemi lineari possono essere assai diversi, per almeno tre distinti motivi: il primo e che la variabile caratterizzante R puo essere in realta un "oggetto" matematico a pili componenti, come per esempio un vettore in uno spazio ad n dimensioni (problema n-dimensionale); il secondo e che l'equazione a cui R soddisfa non e hecessariamente una equazione dif-

ferenziale ordinaria, rna puo essere una equazione algebrica, 0 una equazione integrale, 0 una equazione alle differenze finite; il terzo, in- fine, e che anche la variabile indipendente puo essere pili di una - e non necessariamente con il significato di tempo, t, come negli esempi trattati - nel qual caso ci si imbatte, per esernpio, in equazioni lineari

a derivate parziali, 0 nelle corrispondenti equazioni integrali. I problemi lineari sono spesso riassunti in un'unica forma generale come la seguente:

In questa semplice formula, 0 e un operatore, che trasforma l'incognita £. nel "termine noto" 1£. Sia £. che 1£ sono in generale oggetti a pill

e un operatore line are quando accade che

O£. + Oy : questo e un modo sintetico di prescrivere il

principiO di sovrapposizione quando, naturalmente, Ie operazioni in- dicate (+, =, eccetera) siano state opportunamente specificate con regole di composizione e di confronto fra gli oggetti usati. Il problema generale e quello di "risolvere" - quando e possibile - la [4.12] sotto

componenti (vettori); 0

0(£ + y) =

opportune condizioni. Se la soluzione dell a [4.12] non esiste, a causa di qualche proprieta che rende il problema contraddittorio, si dice che il problema e malposto; inoltre, la soluzione puo non essere unica: come

vedremo al par. 4.5.6, la ricerca delle soluzioni dell a [4.12] da

agli importantissimi teoremi di esistenza e unicitii che, per i problemi lineari, sono noti in una forma molto generale; non cosi per quanto riguarda i problemi non-lineari, che richiedono spesso uno studio caso

luogo

4.2

Spazi vettoriali di dimensione finita

Definizioni

Dato un punta di riferimento 0 (origine) del nostro spazio ambiente tridimensionale, ogni punto P di tale spazio e in corrispondenza biu- nivoca con un segmento orientato 0 vettore 1!. che va dall'origine al punto P. Un vettore dello spazio puo essere moltiplicato per uno scalare a E R dando luogo a un nuovo vettore, diretto come il prece- dente, la cui lunghezza e la[ volte quell a del precedente e il cui verso e concorde 0 discorde a second a che asia positivo 0 negativo. Due vettori 1!.1 e 1!.2 che emanano dall'origine 0 possono essere sommati at- traverso la regola del parallelogramma, dando luogo a un terzo vettore 1!.3 che emana anch'esso dall'origine.

Queste ben note operazioni elementari, opportunamente generalizzate, so no alla base della definizione astratta di spazio vettoriale V, di quell'insieme cioe di elementi, detti vettori, sui quali sono definite Ie seguenti operazioni di somma e di moltiplicazione per uno scalare. a) La somma di due qualunque vettori £., y EVe un terzo vettore di V, indicato col simbolo £. + y, che go de delle proprieta commutativa: £. +

Y = Y + £. e associativa: £+ (y +,r) = (£. + y) +,r. Inoltre, rispetto a tale somma, esiste (unico) l'elemento neutro Q tale che £. + Q = £., V£. E V,

detto vettore nullo 0 origine. Esiste (unico) anche

l' elemento opposto

di £., V:z;.E V, indicato col simbolo -£., tale che £. + (-£.) = Q.

b) Il prodotto di un vettore ;r. EVe di un elemento a (detto scalare

) di un dato campo Fe un vettore di V, indicato col simbolo a;r., che

go de della proprieta associativa: a(/3;r.) = (a/3);r., a, /3 E F,;r. E V, e di

quella distributiva rispetto alla somma degli scalari: (a+/3);r. = a;r.+/3;r.

e rispetto aHa somma dei vettori:

gli elementi 0 e 1 del campo F, aHora O;r. = Q,l;r. = ;r.,'V;r. EVe

aQ= Q,'Va E F.

a(;r. + J!) = a;r. + a'lL. Inoltre, dati

Mentre l'operazione di somma e interna allo spazio, queHa di prodot-

to per uno scalare e esterna, facendo intervenire gli elementi di un cam-

po F assegnato; V e quindi detto, pili propriamente, spazio vettoriale

V sul campo F. In questa testo avremo quasi sempre a che fare con spazi vettoriali V suI campo dei reali n 0 dei complessi C, e V sara detto aHora reale 0 complesso; in alcuni esercizi considereremo anche spazi vettoriali suI campo Q dei razionali. I principali esempi di spazi vettoriali che prenderemo in conside- razione in questo capitolo sono:

dove ;r. + 'lL e a;r.

sono, rispettivamente,

reali (complessi).

2. L'insieme

1. L'insieme R (C) dei numeri reali (complessi),

l'addizione e la moltiplicazione ordinaria tra

Rn (cn) delle n-ple di numeri reali (complessi) ;r.

(X1,X2,

,Xn), con;r. + y e a;r.definite da;r. + 'lL= (Xl + Y1, X2 +

Y2,···,

Xn + Yn) e a;r. = (a X1, aX2,··

., axn).

3. L'insieme Mat(n, n) (Mat(n,C)) delle matrici nxn di elementi reali

(complessi), dove ;r. + Y e a;r. sono, rispettivamente, l'operazione di

somma ordinaria tra due matrici e quella di moltiplicazione per un numero complesso a.

4. L'insieme P n dei polinomi a coefficienti reali (complessi) di grado

:::;n-1, con;r. + Y e a;r. definite, rispettivamente, dalla somma ordinaria

di polinomi e daiIa moltiplicazione di un polinomio per un numero reale

(complesso) a. Quando si parlera di spazio vettoriale C si intendera

10 spazio dei

numeri complessi suI campo dei complessi, cosl come R sara 10 spazio dei reali sui reali. Situazioni miste, come 10 spazio dei complessi suI campo dei reali 0 10 spazio dei reali sui razionali, saranno sempre in- dicate esplicitamente.

La definizione di spazio vettoriale (e delle operazioni su di esso defi- nite) induce una relazione di dipendenza e di indipendenza tra vettori. Ritornando allo spazio ordinario, notiamo infatti che i vettori 1L1 e 1L2

.';1 ~::

,~v,'.2

o

v 2

~

di fig. 4.2 sono legati dalla relazione algebrica lineare 11.2 - a1L1 = Q; essi

sono quindi ottenibili l'uno dall'altro attraverso l'operazione b e so no

paralleli 1L1 e 1L2 di fig. 4.3, del tipo a11L1+ a21L2 = 0 (ad

eccezione del caso banale in cui a1 = a2 = 0), so no detti indipendenti.

Se pero si aggiunge ad essi il vettore 1L3 = a11L1+a21L2 ad essi coplanare,

allora ciascuno dei tre vettori e ottenibile dagli altri due attraverso un'opportuna combinazione delle operazioni a e b e i tre vettori sono dipendenti. In astratto, dato un insieme di vettori {;r.(j)} di uno spazio vettoriale V, si possono verificare Ie seguenti due situazioni:

pertanto detti dipendenti. I vettori non per i quali non esiste invece una relazione

a) esistono m scalari a1,

, am non tutti nulli tali che

m

Lajx(j)

j=l

= 0

in questo caso gli m vettori sono detti linearmente dipendenti;

b) l'equazione [4.13] e soddisfatta

questa caso i vettori sono linearmente indipendenti. Questa nozione, la cui natura algebrica e descritta dalle equazioni algebriche lineari [4.13]' e una naturale generalizzazione dei concetti geometrici di collinearita e di coplanarita.

solo per aj = 0, j = 1,

, m; in

Tre vettori non coplanari 1L1,1L2 e 1L3 dello spazio ordinario sono in- dipendenti e ogni altro vettore 1L dello spazio e esprimibile come com- binazione line are del tipo: 1L = 2::=1 CilLi. E naturale quindi scegliere

q Ilesti vettori come base rispetto aHa quale descrivere ogni vettore 11 (lello spazio; gli scalari Ci sono Ie coordinate di Q rispetto alla base, che (Idinisce quindi un vero e proprio sistema di coordinate. In astratto diremo che un insieme di vettori {;J;(j)} di V, linearmente indipendenti, (\ una base (un sistema di coordinate) di V, se ogni vettore ;r;.E V () Ilua combinazione lineare del tipo

x = '"

-

L. J-

cx(j)

j

n di vettori, allora

\' () uno spazio vettoriale di

(Idillizione di dimensione ha senso poiche ogni base di V e costituita ,1;;.\10 stesso numero di vettori. C:li esempi 1-4 so no tutti spazi vettoriali finito-dimensionali. 'Ira (JIi( ,sti spazi, R n (en) gioca un ruolo particolare; e infatti possibile

~-:(,la base di V e costituita da un numero finito

dimensione finita n:

dim V = n; questa

Illostrare che ogni spazio vettoriale V di dimensione finita n suI campo

d(·j JUlii (dei complessi) e

isomorfo allo spazio R n (en). Se infatti

a ogni vettore ;r;.EVe possibile associare

Ia n-pla di numeri reali (complessi) 6,·· ., ~n attraverso l'equazione

( }j'=1 e una base di V,

n

;r;. = L ~k;r;.(k)

k=l

Vi,'cv()[sa, ad ogni n-pla di numeri reali (complessi) 6,···, ~n e associa- I,ilc IIllivocamente un vettore ;r;.E V di un qualunque spazio vettoriale

\ .Ii

1,1' componenti ~j di;r;. nella base {;r;.(j)}j=l vengono spesso rappre·· : :'·lll.ate come vettore colonna:

base {;r;.(j)}j=1' attraverso la [4.14].

"0 1)('1' collvenienza tipografica, col simbolo (6,

1)( >II('IItc k-esima (0 coordinata k-esima) del vettore { E en, ma anche

,1,,1 vdlo['(, :f E V nella base {;r;.(j)}j=1· Le operazioni di somma;r;. + JL

c;r;.per uno scalare c E C in-

"i "II" vdtori :f, y EVe di moltiplicazione

,III<" >Ij( " al.traver~o l'isomorfismo [4.14], Ie seguenti ben note operazioni

, ~n)T; ~k e la com-

Alla base {;r;.(j)}j=l di V e inoltre associata la base canonica {~(j)}j=l

di

en, dove la componente

k-esima e~) del vettore ~(j)

vale Okj,

k,j =

1,

,no

Questo isomorfismo tra il generico spazio vettoriale V reale (com- pies so ) e R n (en), spiega perche la maggior parte delle nozioni alge bri- co-geometriche astratte associate a spazi vettoriali hanno un significato familiare nel nostro spazio ambiente; il lettore e incoraggiato a questo esercizio di confronto.

Per comprendere Ie proprieta strutturali e costitutive di spazi vetto-

riali astratti useremo un punto di vista costruttivo, most ran do come,

da ogni insieme 2: di vettori, sia possibile costruire il pill piccolo spazio

vettoriale che Ii contiene; come sia possibile poi sommare in modo opportuno spazi vettoriali per otten erne altri pili complessi. II proce- dimento inverso di decomposizione risultera poi altrettanto chiaro.

I sottoinsiemi delIa spazio ordinario costituiti da rette e piani pas- santi per I'origine giocano un rualo speciale, essendo essi stessi spazi vettoriali; ad esempio, ogni combinazione line are di vettori del pia- no emananti dall'origine e ancora un vet tore del piano che emana dall'origine. Siamo quindi portati ad introdurre la nozione di sot- tospazio uettoriale 0 uarieta lineare M deHo spazio vettoriale V come quell'insieme non vuoto di elementi di V tali che ogni loro combi- nazione lineare appartiene ancora aM.

L'invil71ppO lineare (span) di un insieme di vet tori e l'insieme di tutte

Ie combinazioni lineari di tali vettori. Nella spazio ordinario I'inviluppo

line are di un vettore 11 che emana dall'origine e la retta che 10 con- tiene, l'insieme cioe dei vettori paralleli a Q e ottenuti moltiplicando

Q per un numero reale arbitrario; tale varieta ha quindi dimensione

vettori Q1 e Q2 u-

scenti dall'origine e non paralleli e invece il piano che contiene quei

vettori; esso e ottenuto considerando tutte Ie combinazioni lineari del

tipo 0:11,'1+ 0:2Q2e ha quindi

vettori non coplanari e iufine tutto 10 spazio.

1. L'inviluppo line are associato a una coppia di

dimensione 2. L'inviluppo line are di tre

e

So l'insieme =.: dei vettori

di V e una varieta lineare, il suo inviluppo

L m

se stesso; se =.: e costituito da due 0 pili varieta lineari L 1 , L 2 ,

,

definite sullo stesso campo, allora il loro inviluppo L e l'insieme dei

Diremo allora che la varieta L e la somma delle varieta lineari L j , j

1,2,

,m:

L = L 1 + L 2 +

m

+ L m = L j=l

L j

Ad esempio 10 spazio ordinario R 3 e la somma di due piani Jr1 e Jr~!

passanti per l'origine: R 3 = Jr1 +

Jr2, e inoltre la somma di un piano

Jr

e di una retta R non coplanare: R 3 = Jr + Red e anche la somma

di

tre rette non coplanari:

R 3 = R 1 + R 2 + R 3 .

Se Ie varieta MeN

tali che L = M + N hanno come unico vettore in comune l'origin(!:

M n N = {Q}, aHora si dice che MeN

l'una all'altra, rispetto alla varieta somma L. II piano Jr e la retta ]( dell'esempio precedente sono complementari rispetto a R 3 ; non 10 sono invece i piani Jr1 e Jr2! Si noti che ogni vettore ;;£.di R 3 e esprimibile in infiniti modi corrw

somma;;£. = ;;£.1+;;£'2 di due vettori :£1 e ;;£.2appartenenti a due piani diversi; bastera infatti aggiungere a;;£'l un qualunque vettore che giace sulla retta di intersezione dei due piani e togliere 10 stesso vettore a :£2. In generale, quindi, la rappresentazione di un vettore nella forma [4.18] non e unica; se, pero, Ie varieta lineari L j che concorrono alIa formazione della somma L sono tali che ogni vettore ;;£.E L e decom-

[4.18], allora si ha a che fare con

la cosiddetta somma diretta

posta in modo univoco nella somma

sono varieta complemento:ri

delle varieta Lj,j

= 1,

, m.

Riferendoci agli esempi precedenti di somma ordinaria, si ha che R: l

e

anche la somma

diretta

di un piano e di una retta non coplanare,

e

la somma diretta di tre rette non coplanari, mentre, come si e giil

osservato, non e la somma diretta di due piani diversi, di cui e invece

la somma ordinaria. Le seguenti affermazioni: 1. Ie varieta L 1 ,

, L m tali che la de-

com posizione del generico vettore ;;£.= ~;= 1 ;;£'k,;;£'kELk e unica; e

2.

Q = ~;=1 ;;£'k';;£'kE Lk e unica so no equivalenti (come e facile mostrare)

e, in analogia con la nozione di indipendenza di vettori, ci portano a

Ie varieta L 1 ,

,

L m tali che la decomposizione del vettore nullo

definire tali varieta linearmente indipendenti. Varieta lineari indipen-

precis a; esse

sono tali che l'intersezione di una qualunque di loro con la somma di tutte Ie altre e 10 spazio banale:

denti hanno anche una caratterizzazione geometric a ben

m

L j n ( L

L k )

= {Q},

j = 1,

,

m

k=l,k#j

Infatti, se, per assurdo, ammettiamo che L j n (~;=l,k#j Lk) =I {Q} per

che JL= ~;=1,#j JLk' JLk E

Lk· Quindi;;£.j + JL j + ~k#j (;;£.k- JLk) sarebbe un'altra rappresentazione

di;;£. E V. Si puo mostrare che vale anche l'opposto: se vale la proprieta

qualche j, allora deve esistere un JLE

L j tale

[4.21], aHora Ie varieta L j , j = 1,

, m sono linearmente indipendenti.

La decomposizione di uno spazio nella somma diretta di sottospazi indipendenti e una "buona" decomposizione, grazie aHa proprieta di unicita discuss a sopra, e sara uno dei fili conduttori di questo capitolo. E utile raccogliere questi e altri risultati suHa somma e decompo- sizione di spazi vettoriali astratti nel seguente teorema.

Teorema 4.1. Teorema sulla somma di spazi vettoriali:

1. Dati i sottospazi

L, le

seguenti tre affermazioni sono equivalenti:

a) L e la somma diretta di L 1 ,

;;£. E L pub essere messo nella forma;;£. = ~;=1 ;;£'j,;;£'jE L j in uno ed un solo modo;

L j , j

= 1,

, m dello spazio vettoriale

, L m : L = ffiL j , cioe ogni elemento

b) L e la somma

elemento ;;£. EVe

ordinaria

di L 1 ,

, L m

: L

= ~';1

decomposto nella somma;;£. = ~';1

L j (cioe ogni

:£(j), ;;£.(j) E

Lj , j = 1,

, m) e inoltre le varieta L j , j = 1,

,m sono linearmente

indipendenti; c) L e la somma ordinaria di L 1 ,

l'intersezione

nullo: L i n (~#i

2. Se L e la somma diretta di m spazi vettoriali L 1 ,

, L m : L = ~';=1L j e inoltre

di ogni varieta L j con la somma delle altre e il vettore

L j ) = {Q}.

, L m , allora

m

dimL = LdimL j j=l

3.

sottospazio

Dati lo spazio vettoriale

V ed un suo sottospazio

N tale che V = M ffi N.

M,

esiste un

Dati 10 spazio vettoriale L ed un suo sottospazio M, la parte 3 del teorema 4.1 assicura l'esistenza di un complemento N di M rispetto a L, tale che L = M tEN. Questo complemento non e unico; ad esempio,

se so no dati il piano R 2 ed una

l'origine, il complemento Y di X e una qualunque retta del piano, nOli parallela a X e passante per l'origine. E possibile tuttavia costruire UII complemento diverse e unico, costituito dall'insieme di tutte Ie rett(~ del piano parallele a X. Questo insieme e uno spazio vettoriale ed (\

inoltre isomorfo ad ogni complemento Y di X. Infatti ogni punta I' dell a retta Y e in corrispondenza biunivoca con un elemento di tal<~ insieme (con la retta parallela a X che interseca Y in P).

retta X in esso contenuta e passante per

Motivati da queste considerazioni definiamo, dati 10 spazio vettoriale

L e un suo sottospazio M,

come l'insieme delle classi di equivalenza definite dalla relazione di equivalenza rv y ~ ;£ - Y E M,;£, Y E L. Tale spazio e uno spazio vettoriale, isomorfo a tuttii complementi N di M (e gioca quindi un ruolo unico tra di essi), l'isomorfismo essendo definito dalla corrispon- denza yEN ~ Y + M = {y +;f, ;£ E AI}. Questo risultato, insieme alIa parte 2 del teorema 4.C implica che, se L e uno spazio vettoriale a dimensione finita, allora

10 spazio quoziente

L 1M di L modulo M

dimL/M

= dimL - dimM

Per chiarire questo concetto, facciamo un semplice esempio. Sia L 10 spazio R 3 , e M la retta (bisettrice del piano xy) di equazione:

Due elementi di L sono equivalenti (modulo A1), cioe appartengono ana stessa classe di equivalenza, se la loro differenza appartiene aM, cioe se Zl = Zz, Xl - Xz = YI - Y2. Una classe di equivalenza sara quindi parametrizzata nel modo seguente:

Si vede facilmente che ]'insieme delle classi di equivalenza costituisce una varietd lineare di dimensione 2. Un vettore generico dello spazio R 3 di componenti X, y, Z si decompone nella somma di un elemento E M e di un elemento ELI M. Si ha infatti:

(x, y, z) = (x, X, 0) + (0, y - X, z)

dove (x,x,O)

EM e (O,y - x,z) E LIM.

Sappiamo operare sui vettori dello spazio ordinario in vario modo: sap- piamo ad esempio proiettare un vettore 1!.su un piano perpendicolar- mente ad esso 0 parallelamente ad una direzione assegnata; sappiamo ruotarlo di un certo angola 0 invertirlo. Queste operazioni a noi fa- miliari sono esempi di trasformazioni (0 operatoTi, 0 applicazioni, 0 operazioni) lineaTi; un operatore lineare A su uno spazio lineare V e una trasformazione che assegna ad ogni vettore ;£ E V un vettore A;£ E V che go de delle proprieta di linear ita

Un operatore lineare e omogeneo, nel senso che AQ = Q; operatori

lineari speciali sono l'identita

I;f = ;£, 0;£ = Q, \/;f E V. L'insieme degli operatori lineari su V e esso stesso uno spazio vettoriale in cui la somma A + B di due ope- ratori A e Bela moltiplicazione aA per uno scalare so no definite,

I e 10 zero 0, definiti

dalle equazioni

I 1::1 ",lIivallwlI!.c, da.llc equazioni (A + B);f = A;r + B;r,

(aA):r

( 1\.1), VI: ( V (mostrarlo). Il risultato di due trasformazioni succcs ::J v.· di 1'<'lIdcdall'ordine in cui sono effettuate (si pensi all'applica~iolll' ,II dill' ro!.a~ioui), e il prodotto AB di due trasformazioni A c II I'.

'I

,Jdilli!." at.traverso l'equazione (AB);r = A (B;r) , 'V;r E V. In geIwral<'

1\ It / It A c l'ordine di applicazione e allora importante.

In <I ues !."

,';\;:" si di<:l~che gli operatori A e B non commutano 0 che il comIlIl1

1:\.I"n~ I i\, 13] = AB - BA e diverso

da zero.

( )1',lIioperatore line are A su un spazio vettoriale V (il dominio dell'op(' r;d,,,n~) seleziona in modo naturale alcune varieta lineari di V. Il m'/Uj(' ,Jj A, iudicato col simbolo R(A), e l'insieme dei vettori di V delia 1"l'Il1a A;r, con;r E V : R(A) = {A;r,;r E V}; esso e anche chiama!." llllllw,tjine, secondo A, del dominio V 0 codominio di A. Il nucleo 0 null ,',pUI'/' di A, indicato col simbolo N(A), e l'insieme dei vettori ;r E V

!.ali che A;r = Q : {;r E V, A;r =

Ijll<~aresu V sono varieta lineari di V. La dimensione di R(A) e det!.a !II'/UjO dell'operatore A; quella di N(A) e qualche volta detta nullitd, 0

dijdl,o di A.

I';siste la seguente relazione tra it rango di A, la dimensione del SilO 1I11<:!cOe la dimensione finita n di V:

O}. Range e nucleo di un operaton'

I hm,ostmzione.

Se M (A) e un qual un que complemento del nuclco

ddl'operatore A: V = N(A) EEl M(A), ogni ;r EVe decomposto uni· vocamente nella somma ;r = ;rN + ;rM, ;rN E N (A), ;rM E M (A).

esiste un ;r E V tale che y = A;r = A;rM e

qucsta corrispondenza e unica. Infatti, se esistesse un altro ;r~ tak

ap-

parterrebbe sia a M(A) che a N(A). Abbiamo quindi dimostrato che A stabilisce una corrispondenza biunivoca tra R(A) ed un qualunque cornplemento di N(A). Tale corrispondenza e un isomorfismo, in virtl'l della linearita di A; quindi dim R(A) = dim M(A) e l'equazione [4.24] segue dal teorema 4.1, punto 2.

cite JL = A;rM = A;r~, allora A(;rM -;r~) = Q e il vettore;rM -;r~

PCI' ogni JL E R(A)

Pili in generale, l'operatore lineare A puo operare tra spazi vetto- riali diversi X e Y definiti sullo stesso campo: A : X -t Y e quanto

ddto sinora trova un' ovvia generalizzazione. In particolare N (A) c

l'operatore A determina un isomorfismo tra R(A) C Y

X, R(A) eYe

e un qualunque complemento M(A)

risultato [4.24] ha la seguente generalizzazione:

vettoriale finito-dimensionale, allora dim R(A) + dim N(A) = dim X.

C X del nucleo di A; inoltre it

se X e uno spazio

Come si e detto nei paragrafi introduttivi, uno dei problemi fonda- mentali dell'algebra lineare consiste nel risolvere, per l'incognita ;r, l'equazione

dove A e un operatore lineare tra gli spazi vettoriali X e Y; tale pro- blema e strettamente legato alIa possibilita di invertire A. L'operatore A : X -t Y e inveTtibile se, 'Vy E Y, esiste un unico ;r E X che risolve l'equazione [4.25] 0, equivalentemente, se Ie seguenti due condizioni sono entrambe soddisfatte:

i) 'Vy E Y esiste almeno un ;r E X che risolve la [4.25] (cioe Y coincide col range dell'operatore A: Y = R(A));

ii) se;rl i' ;r2'

solo l'elemento nullo: N(A) = {Q}).

;rl,;r2 EX=} A;rl i' A;r2 (cioe it nucleo di A contiene

L'operatore

che associa a y l'unico ;r che risolve la [4.25] e un 0-

simbolo

peratore line are e viene chiamato inverso di A, indicato col A-I

Daile [4.25] e [4.26] segue che AA -1 = I in Y e che A-I A = I in X; ma l'equazione

vale solo se i due spazi X e Y coincidono! Si noti inoltre che, una volta caratterizzato it range R(A) dell'operatore A, aHora'Vy E R(A) esiste una soluzione;r EX dell'equazione [4.25]; essa e unica se la condizione

ii e soddisfatta. L'operatore

solo se N(A) = {Q}.

A : X -t R(A) e quindi invertibile se e

Se X e Y sono finito-dimensionali e se A e invertibite, allora A-I

e, al pari di A, continuo e limitato (cfr. par. 4.5). Limitandoci ora a

considerare operatori lineari su V (A : V -t I l ), mostreremo che Ie con-

dizioni i e ii, entrambe necessarie nel caso generale per caratterizzare operatori invertibili, sono ridondanti se V e finito-dimensionale.

Teorema 4.2. Teorema sull'invertibilita

finito-dimensionali:

CNES affinche

di operatori

lineari

su spazi A su uno

un

un operatore

lineare

spazio finito-dimensionale

;r E V tale che A;r = y (cioe che R( A) = V); oppure

V sia invertibile

10 che, Ify E V, esista

che I' equazionc

A;r = Q implichi

che £= Q (cioe che N(A)

= {Q}).

Dimostrazione.

Se A e invertibile, Ie condizioni i e ii so no entramb(~

soddisfatte; quindi R(A) = V e N(A) = {Q}. Viceversa, l'equazione

[4.24J d~duogo alle due serie di implicazioni: N(A) = {Q} =? dim R(A)

= dim V =? R(A) = V =? :JA -\ R(A) = V =? dimN(A)

N(A) = {Q} =? :JA -1.

= 0 =>

Se

A

e un operatore lineare su Ve {;r(j)}j'=1 e una base di V, l'azione

di

A

su un generico elemento dell a base e esprimibile mediante una

combinazione degli elementi della base:

Ax(j)

-

n

= """' ax(i)

L-t

1.J-

i=l

e

l'insieme degli n 2 numeri complessi aij, i, j = 1,

, n costituisc(~

la

rappresentazione

matriciale dell'operatore A nella base {;r(j)}j'=l ('

viene "assemblato" nel seguente modo:

(A) =

C' a21

:

an1

a12

a22

an2

a,n)

a2n

ann

(il simbolo (A) verra usato, quando necessario, per distinguere 130rap presentazione matriciale dell'operatore A in una certa base dall'opera-

tore stesso). Gli scalari (ail, ai2,

scono rispettivamente 130i-esima rig a e 130j-esima colonna dell a matric('

, ain) e (a1j, a2j,

, anj)T costitui

A.

L'elemento aij di (A) e 130i-esima componente del vettore A;rCiJ

e

quindi 130j-esima colonna di (A) e costituita dalle coordinate del

vet tore A;r(j). Lo spazio delle matrici nxn e isomorfo allo spazio degli

operatori lineari su spazi vettoriali di dimensione n. Infatti 130[4.2KJ associa, attraverso 130base {;r(j)}j=1, ad ogni operatore A la matrie(' (A); viceversa l'assegnazione dell a matrice (A) e di una base di V permette di determinare univocamente l'operatore A, nel senso che (\ nota 130sua azione su un qualunque vettore ;r = l.:~=l ~k;r(k) E V:

A;r = l.:~=l ~kA;r(k) = l.:~=l (l.:~=l aik~k);r(i).

Questo isomorfismo permette di stabilire immediatamente Ie ben note regole di addizione e di moltiplicazione tra matrici quadrate e 130 loro applicazione su vettori colonna.

Proposizione

4.1. Se aij e b ij sono Ie rappresentazioni matriciali degli

operatori

A e B rispetto

aHa base {;r(j)}j'=l1 allora Ie matrici che

realizzano gli operatori:

i) exA + f3B, ex, f3 E C; ii) AB; iii) 0; iv)

I

sono,

rispettivamente:

i) exaij + f3bij; ii)

l.:~=l aikbkj;

iii) (O)ij;

iv)

(I)ij

= Dij'

Inoltre,

se ;r, JL E V sono

legati dall'operatore A

tramite

l'equazione A;r = y, allora i vettori colonna (6,

, ~n)T e

(7]1, , TJn)T, che realizzano-rispettivamente;re sono legati dall'equazione

JLnella base {;r(j) }j=1'

n

TJi = I>ik~k' k=l

i = 1,

, n =? !l = (A)~

dove aij e la rappresentazione dell'operatore A nella base {;rCiJ}. L'e- quazione [4.29] fornisce la regola d'applicazione "da sinistra" di una matrice su vettori colonila. Le equazioni [4.25] e [4.29] esplicitano il legame profondo tra operatori lineari e sistemi di equazioni algebriche lineari.

Se,

pili in generaIe, l'operatore lineare A porta 10 spazio vettoriale

V n di dimensione n nello spazio Vrn di dimensione m, e se {;r(J)}j'=l e

so no rispettivamente basi di V n e 17 m , allora l'azione di A su

{y(j)}~l

un ge~erico elemento dell a base di V n e esprimibile con 130combinazione

line are

m

A;r(j) = I: aijJL(i),

i=l

j = 1,

, n

e l'insieme degli mxn numeri complessi aij, i = 1,

rappresenta l'operatore A rispetto aIle basi h(j)}j'=l

insieme e assemblato nella "matrice rettangolare mxn"

, n

e {JL(j)}j=l' Tale

, m,j = 1,

(A) =

C" a21

:

am 1

a12

a22

an2

a'n )

:I~,.

E lasciata al let tore 1a dimostrazione delia seguente generalizzazione

Proposizione 4.2 1. Lo spazio delle matrici mxn e isomorfo allo spazio degli operatori lineari che portano spazi vettoriali di dimensione 71 in spazi vettoriali di dimensione m.

2. Siano dati gli operatori lineari A e B tali che A : V n1 ----+ V n2 e B :

V n2 ----+ V n3 ; se aij, i = 1,

,712,

j = 1,

,711 e b ij , i = 1,

, 71 3, j

"

1,

, 712 sono Ie rappresentazioni matriciali di A e B rispetto aIle basi

{

(j)}nl

.:Ii. j=l'

{(j)}n

JL

2

j=l

e

{(j)}n3

~

j=l nspe

.

tt'

1vamen t e

d' TT

I Vnll V n2 e V n3 , p

TT

TT

se.:Ii. E V n1 eyE V n2 sono legati dall'operatore A tramite l'equaziorw [4.25], allora:-

i) l'operatore lineare

n3 xn 1:

BA

n2

(BA)ij=Lbikakj,

k=l

V n1 ----+ V n3 e rappresentato dalla matricp

i=1,

,n3,

j=1,

,n1

che fornisce 130 regola di moltiplicazione tra matrici rettangolari n3xn~

e

n2xn1.

ii)

Ie coordinate T/1,

,T/n2 e 6,

,~nl rispettivamente

dei vettori y

e.:Ii.so no legate dall'equazione

nl

T/i =

L

aik~k,

i =

1,

,712

k=l

che fornisce 130 regola di applicazione da sinistra di matrici n2xn1 Sll vettori colonna n1-dimensionali. L'equazione [4.32] puo essere vista come caso particolare della [4.31], interpretando vettori colonna 71- dimensionali come matrici nx1.

Introdotta 130 nozione di operatore lineare A dallo spazio vettoriale V ill

se stesso, e naturale associarvi 130 nozione di sottospazio M invariant('

rispetto ad

agli ope-

ratori di derivazione e di traslazione, ma non di integrazione. V e {Q} sono esempi banali di sottospazi invarianti (10 sono per ogni trasfor-

in P n , 10 spazio P k , k <:.: 71 e un sottospazio invariante rispetto

A, cioe tale che, se.:Ii. E M, anche A.:Ii.E M. Ad esempio,

mazione line are su

rispetto ad A sono N(A)

V!). Esempi meno banali di sottospazi invarianti

e R(A).

Se il sottospazio

M e invariante rispetto

restringere l'azione di A 301 solo sottospazio

ad A, allora possiamo M (ignorando che A (~

definito su tutto V), ottenendo 130 cosiddetta restrizione M (AIM: M ----+ M):

[4.33]

AIM.:Ii.= A.:Ii., .:Ii.E M

AIM di A a

AlIa nozione di sottospazio invariante aggiungiamo ora quell a di pro- iettore che ha un forte significato geometrico ed e intimamente legata

a quell~ di decomposizione di uno spazio vettoriale nella somma diretta

di due sottospazi. Abbiamo gia visto come il piano R 2 sia 130 somma

diretta di due rette X eYnon parallele, quindi ogni vettore z di R 2 e decomposto in modo univoco, attraverso la regola del paralle- logramma, nella somma di due vettori ~ =.:Ii.+ JL' con.:Ii. E X e JL E Y. II vettore .:Ii.e quindi ottenibile "proiettando" z sulla retta X "lungo" 130 retta Y (cioe parallelamente ad essa) e l'operatore che svolge questa azione viene detto proiettore.

/

z

~

\

 

/

\

/

\

/

In generale, se il generico vet tore ~ EVe decomposto in modo univoco

nella SOIIlma ~ = .:Ii.+ y, con .:Ii.E M e JL E N, allora l'operatore proiezione (il proiettore) P su M lungo N e quell'operatore tale che

di

[4.34]

P~ =.:Ii.,

~ E V

Dalla definizione segue che gli operatori di proiezione sono lineari; che

se P e un proiettore

su M lungo N, allora I - P e un proiettore su

c

quello di 1 - P e la dimensione di N. Gli operatori di proiezione HOIIII inoltre caratterizzati dalla seguente proposizione.

Proposizione

se e solo se P e idempotente,

Dimostrazione.

ogni ~ E V, si ha la decomposizione ~ =;r + y con;r = P~ EM; d'alt.r;1

parte la decomposizione di ;r e ;r = ;r + Q., qui;di p2 ~ = P (P~) = P:r ;r = P~ =} p 2 = P. Assumiamo ora che p 2 = P e mostriamo che i seguenti sottospazi

di V:

so no t.ali

N lungo M: (I - P)~ = y; che il rango di P e la dimensione diM

4.3. Una trasformazione lineare P su V e un proiett,ol"l'

cioe se e solo se p 2 = P.

Assumiamo che P sia un proiettore su M; aHora, ]lC'1

L 1 = {P;r; ;r E V} e L 2 = {(I - P);r; ;r Ell}

Infatti, V~ E V, ~ = P~

che V = L 1 EB L 2 .

+ (I - P)~; inoltre (~~;~;i

so no indipendenti, poiche dall'equazione P;r1 + (I - P);r2 = Q e dalla

proprieta p 2 = P segue che p 2 ;r1 = P;rl = Q e quindi (I -. Pk2

AlIora P

e ;r E L 2 =} P;r = Q. Nella seconda parte delIa proposizione 4.3 abbiamo mostrato e1\('

e un proiettore su L 1 e 1- P su L 2 ; inoltre;r E L 1 =} P;r = :1'

= ll,

un

operatore idempotente P su V decompone V nella somma direLta

di

due sottospazi L 1 e L 2 tali che, se ;r E L 1 ,

allara P,;I:, = ;r e HI'

;r E L2 allora P;r = O. Questo risultato ha la seguente important!· generalizzazione.

Proposizione

4.4. Se gli

operatari lineari p(l),

, p(m) soddisfano II'

equazioni

LP(i) = 1

i=l

aHora decompongono V nella somma diretta: V = L 1 EB L 2 EB

di m sottospazi indipendenti Lk,

allora p(i);r = 8 i .i;r.

Dimostrazione. La dimostrazione

EB L,,,

k = 1,

, m tali che, se ;r E L j,

che i sottospazi L.i = {pW;r; ;r (

V}, j = 1,

, m decompongono V in somma diretta e un'ovvia geIH~-

ralizzazione del risultato precedente ed e lasciata al lettore. Qui no

tiamo soltanta che, se;r E L.i, aHara 3y E V tale che;r = pU)y;

quindi

p(i)X = p(i)pU)y

_

_

= 8·pW y

tJ

_

= 8x.

ZJ-

-

-

Un operatore

lineare dallo spazio vettoriale

V a e (0 R) e dett~

funzionale

linear-e su V.

Ad esempio, dat.i gli n ~umeri complessl

h,

, f n, la funzione scalare f (;r) che aSSOCIaad ogm ;r = (6,

,

~n)

E en la quantita scalare

f(;r) = L fi~i

i=l

El un funzionale lineare su en. L'insieme di tutti i funzionali lineari su V e chiamato spazio duale dz V cd e indicato col simbolo V*. E facile convincersi che V* e esso stesso uno spazio vettoriale, avendo definito il funzionale 0 (zero), la somma

h + h di due funzionali lineari ed il prodotto o:f di un funzionale per

,

10 scalare 0: attraverso

Ie equazioni C(;r) = 0, (J + g)(;r) = f(;r) +

g(;r), (0:J)(;r) = o:f(;[;,), V;r E V.

n

.

,

.

Se {;r(j)}l e una base di V e;r = 2:::.1=1~.i;r(J) e un genenco vettore di V allora oO'ni elemento di V* e rappresentabile nella forma [4.37]

V*

per una scelta opportuna degli scalari h,·

allara f(;r) = 2:::;'=1~.if(;rW)

particolare, i vettori {;rW *}l di V*, definiti dalle equazioni

f n'

In f' attl, se

f

,

b

E

,

In

coincide con [4.37], per f.i = f(;r(J))·

[4.38]

;r(i)*(;rW)=8 i .1'

i,j=l,

,n

corrispondono alIa seguente scelta per ;rW * : f.i = 1, h = 0, ~ i- j. Ad agni elemento f E e possibile associare la n-pla dl numen

complessi h,

,fn attraverso l'equazione

[4.39]

n

f = L h;r(k)'

k=l

.

V' e quindi uno spazio vettoriale di dimensione n, isomorfo a en, e l'insieme dei vettori {;rW'}l e una base di tale spazio, la cosiddetta

.

base duale delIa base {;rW}l. Le formule [4.38], [4.14] e [4.30] implicana inoltre che Ie componentl

~i, i = 1,

, n del vettore colonna rappresent~tivo di ;r E V rispe~to

alIa base {xW}n e Ie componenti Ai.i delIa matnce (A) rappresentatlva dell'operat<;re liner are A su V nella stessa base sono esprimibili nel

seguente modo:

Se ;r = 2:~=1!;k;r(k) e un elemento di V, f

elemento di V* e vale la [4.38], il funzionale lineare:

2:~-1 fkX(k)*

-

-

=

C 1111

esprime 10 scalare f(;r) attraverso

f. E V*. La [4.41] su~gerisce di rappresentare Ie componenti f~ dl f nella base {;r()) }r come vettore riga:

Ie componenti

dei vettori x E V (.

, III

e di interpretare l'applicazione f(;r) come il prodotto delIa matric(' rettangolare 1xn rappresentata dal vettore riga [4.42] per la matric(' nx1 rappresentata dal vettore colonna [4.15].

La corrispondenza generico operatore A attraverso l'equazione

tra V e V* permette

infine di associare ad 1111

0 "duale" di .A,

su V l' operatore A * "aggiunto"

E possibile most rare che, se (A) e la rappresentazione matriciale dd l'operatore A in una certa base {;.!;(j)}r di V, allora la rappresentazioJl(, matriciale di A * nella base duale e fornita dalla matrice AT traspos/'({

di (A):

Rispetto alIa base {;r(j)*}r l'equazione j = A* f, con j = 2:

",n

f = 6j=1

fj;r)

(.)*

E V*, ammette quindi la realizzazione

n

_ jx

Ul *,

)-1

)-

n

h = L(A *)jdi

i=1

n

= L fi(A)ij

i=1

che ~ornisce la ~egola di "~ol~iplicazione da destra" delIa mat rice (A)

?er 11 vettore nga f E en . E lasciata 11 rango di A * e uguale al rango di A.

al lettore la dimostrazione ell<'

Poiche ogni spazio vettoriale complesso V e isomorfo a en, illettore si sara sicuramente chiesto percM si continui a studiare spazi V astratti, invece di concentrare la nostra attenzione solo su en, spazio a noi familiare, nel quale possiamo utilizzare ben noti risultati di algebra lineare e di teoria delle matrici. La ragione di questa ostinazione e che, a prescindere dall'indubbia eleganza di una trattazione astratta e generale, l'isomorfismo tra V e en si realizza attraverso la scelta di una base di V; quindi i risultati dimostrati in en sono validi in generale solo se non dipendono dalla base scelta, cioe solo se sono invarianti per isomorfismi. Se, ad esempio, si vuole studiare la risolubilita dell'equazione [4.25]

in

V, siamo senz'altro portati

a consider are il sistema algebrico

n

L aik!;k = 1/i, i = 1,

, n,

k=1

di

n equazioni nelle n incognite !;i,i = 1,

, n, al quale l'equazione

[4.25] si riduce in una certa base. Allora la regola di Cramer ci assicura che esiste unica la soluzione delIa [4.45] in en se e solo se la matrice

(A) e invertibile (cioe se e solo se det A -I 0) e la soluzione vale

dove (CA) e la matrice dei cofattori di (A). Per poter trasferire questo risultato in V dovremo pero assicurarci che l'invertibilita delIa matrice

(A) sia una proprieta condivisa da tutte Ie matrici che rappresentano

l'operatore A, non dip end a cioe dalla base prescelta. Nel nostro e- sempio ci piacerebbe quindi associare ad ogni operatore su uno spazio finito-dimensionale una nozione intrinseca di determinante, indipen- dente dalla base. In generale, nella formulazione matematica delle leggi delIa fisica gio-

cano un molo import ante Ie proprieta di invarianza rispetto a sistemi

di

riferimento diversi 0, come si dice, per trasformazioni di coordinate

o

per cambiamenti di base. E quindi importante:

i) stabilire come si trasformano gli enti matematici (gli scalari, i vettori,

Ie

matrici e, pili in generale, i tensori) che descrivono Ie quantita fisiche,

in

seguito a tali trasformazioni;

ii) individuare quelle quantita che restano invarianti rispetto a lall trasformazioni e che quindi rappresentano delle proprieta "intrillsI'dll' dell'oggetto fisico".

Consideriamo un cambiamento

di base {z(j)H

---* {;r.(j)'}!',

scritto dall'operatore

lineare T mediante la trasformazione

[4.46]

;r.(j)' = T;r.(j) = 2: Tkj;r.(k) = 2: (TT)jk;r.(k) , j = 1,

n

n

k=1

k=1

, n

.1,-

dove T ij e la rappresentazione matriciale dell'operatore T nella ha~;,'

{;r.(j) H (si puo mostrare che, affinche l'insieme dei vettori ;r.(j)', ddill i II dalla [4.46], costituisca una base di V, e necessario e sufficiente ell(' Iii mat rice (T) sia invertibile). II vettore ;r. EVe equivalentemente rappresentato mediante Ie ~'11" componenti rispetto alIe due basi {±(j)H e {±(j)'H':

X

-

n

= "\"' tx(j)

~

':,1,_

i=1

n

= "\"' t'x(j)

L-t ':,1,-

i=l

I

In seguito al cambiamento di base [4.46]' queste componenti SOil" trasformate nel seguente modo:

~i = 2:.1ik~k'

k=l

=} ~/ = L:)T- 1 )ik~k

k=1

da cui segue la [4.48]' in virtl1 dell'indipendenza dei vettori ±(j)

mostri che anche il risultato opposto e vero: se i vettori di en (6,

~n)T e (~/, Ie componenti

_l~1

,

,~n')T so no legati dall'equazione [4.41]' allora essi SOil"

di uno stesso vettore di V, nelle basi {±(j)}

e {:rCIi'l

rispettivamente. Invece di prendere in esame il cambiamento di base [4.46], COli Iii

conseguente determinazione delle coordinate di ± nella base {±CJ)/ I, si puo usare un punta di vista alternativo in cui, mantenendo fissa 1:1 base {;r.(j)} , si realizza una trasformazione del vettore ± in un !lIIOV" vet tore {k:

in modo tale che Ie coordinate di {k nella base {;r.(j)} siano uguali alle

coordinate di ;r. nella base {;r.(j)/}. Poiche, rispetto alIa base {;r.(j)}, l'equazione [4.49] prende la forma {i = L~=1aik~k, la richiesta che

che

ti = ~~e l'equazione [4.48] portano al risultato, peraltro intuitivo,

tra il cambiamento di base [4.46] e la trasformazione dei vettori [4.49]

c'e una relazione inversa:

Una semplice applicazione di questo risultato ai vettori del piano cor- risponde alIa matrice (cfr. par. 1.1, [1.23])

( T) = Rre) = (co~e

\

sine)

~ sm e cos e

che ruota gli assi cartesiani di un angolo e. Considerando

vista alternativo, al generico vettore ;r. e applicato l'operatore (R( e))-1

il punta di

=

R( -e), che 10 ruota di -e. Possiamo quindi affermare che:

i)

i vettori (6,

,~nf e (6""',~n'f

di en sono Ie coordinate

di

uno stesso vettore di V nelle basi h(j) H e {±(j)' H rispettivamente, se e solo se vale la [4.48];

ii)

i vettori ± e {k di V hanno

Ie stesse coordinate nelle basi h(j)'}]'

e

{;r.(j)}]' rispettivamente, se e solo se valgono Ie [4.49] [4.50].

In seguito a1 cambiamento di base [4.46] valgono risultati analoghi

per i vettori delIo spazio duale e per Ie trasformazioni

essi so no raccolti nella seguente proposizione, la cui dimostrazione e

lasciata al let tore.

Proposizione 4.5

i) In seguito alla trasformazione

duali di {;r.(j)}]' e di {;r.(j)'}]', si trasformano secondo l'equazione

lineari su V;

[4.46] Ie basi {±(j)*H

e {;r.cn*'}]',

[4.51]

n

±(j)*' = B±(j)* = LBkj±(k)*,

k=l

(Bf = (T)-l

dove (B)ij

= B ij e la matrice dell'operatore

B : V* ---* V* nella base

h(j)}]'·

ii) I vettori rig a (iI,

uno stesso vettore di V* nelle basi {±(j)*}]' e {;r.(j)*/}]' rispettivamente, se e solo se

, In) e Uf,

, In) di en so no Ie coordinate di

n

Ij = L!k 1 kj

k=l

iii) I v~ttori f e j E V* hanno la stesse coordinate nelle basi {~(j)*' H

e {~(J)

}r rispettivamente, se e solo se

j = (Tf f,

f = Bj,

(B)T = (T)-l

iv) Le matrici (A) e (AI) sono Ie rappresentazioni matriciali di uno stesso operatore lineare rispetto alle basi {~(j)}r e {~(j)/}! rispetti- vamente, se e solo se la relazione tra Ie matrici (A) e (AI) e fornita. dall' eq uazione

n

LTikA~j =

k=l

= L AikTb => (T)(A / ) k=l

= (A)(T), (AI) = (T)-l(A)(T)

v) Gli operatori A e A hanno la stessa rappresentazione matriciak

nelle basi {xU)}!

e {~U)/}r rispettivamente, se e solo se

I vettori colonna che, in seguito al cambiamento di base [4.46f, si

trasformano secondo la [4.48], sono detti controvarianti, poiche la trasformazione delle loro coordinate e l'inversa delIa trasposta delIa trasformazione delIa base. I vettori riga che, invece, si trasformano secondo la [4.52], sono detti covarianti, poiche si trasformano come la base.

. DU~ ~atrici (A) e (AI) s~no ~ette ~imili se esiste una matrice (T)

lllvertlbIle che Ie lega tramlte 1 equazlOne [4.54]. La trasformazione

[4.54] e detta di similitudine 0 canonica. Allora due matrici sono simili

se e solo se sono Ie rappresentazioni matriciali di uno stesso operatore. Ad ogni operatore su V e quindi associata una classe di matrici simili (mostrare che e una classe di equivalenza). A vendo ottenuto Ie leggi di trasformazione di vettori e matrici ci occupiamo ora di invarianti. Notiamo innanzitutto che equazioni' al-

gebriche tra matrici sono invarianti per trasformazioni di similitudine'

'

basta infatti osservare che, se AI = T- 1 AT e

B I = T-l BT, allora

CAI = T-1(cA)T

A' + B I = T-1(A

+ B)T, A/B I = T-1(AB)T

E inoltre possibile most rare che anche tr A e det A sono invarianti per trasformazioni di similitudine:

tr AI = tr(T- 1 AT) = tr(ATT- 1 )

= tr A

det AI = det(T- 1 AT) = det(T- 1 ) det(A)

= detA

= (detT)-l detAdetT

det(T) =

e quindi sono grandezze intrinseche dell'operatore rappresentato dalle

matrici A e AI. Un'altra grandezza intrinseca associata all'operatore A e il suo "poli-

nomio caratteristico" P A (A):

[4.57]

PA(A) = det(A - AI) = L Cn_jA j = II(Ak - A),

j=O

k=l

A E C

N e segue in particolare che i coefficienti Cj, j = 1,

caratteristico (e quindi i suoi zeri AI,

sformazioni di similitudine e quindi sono grandezze intrinseche dell'ope- ratore A; gli zeri di peA) sono detti autovalori di A (cfr. par. 4.2.5). Osserviamo che tr A e det A sono due fra i coefficienti del polinomio caratteristico: precisamente si ha che Co = (-1) n, Cl = (-1) n-1tr A

, n del polinomio

, An) sono invarianti per tra-

e C n = det A. Osserviamo inoltre che i coefficienti Cj del polinomio caratteristico e gli autovalori di A sono legati dalle relazioni:

Cl = (_l)n-l

c3 = (_1)n-3

n

L Ai,

i=l

L

il<i2<i3

C2 = (_1)n-2

AilAi2Ai3"'"

L Ai1Ai2

il <i2

n

cn = IIAi

i=l

da cui deduciamo la ben nota rappresentazione di

traverso gli autovalori di A: tr A = L~=l Ai, det A = I1~=1 Ai' Per il polinomio caratteristico [4.50] vale l'identita di Cayley-Hamil-

tr A e det A at-

ton:

n

PA(A) = LCn-kAk

k=O

= 0

la cui dimostrazione si basa suI fatto che e possibile "dividere" l'opcra tore PA(A)I per l'operatore (AI - A) nel seguente modo

dove gli operatori "quoziente" Q(A) e "resto" R, univocamente dekr minati dalla [4.59] e dalla richiesta che R non dipenda da A, valgoJlo

Q(A)

n-l

= 2:: QjA j , j=O

Qj

R

n-l

= 2:: cn-jAj

j=O

=

n-j-l

2:: C n _j_s_l AS

8=0

= PA(A)

Se A e tale che PA(A) =J 0, allora la rnatrice A - AI e invertibile ('

come nella [4.45'], (A - AI)-1 =

I = (A - AI) -1 (A - AI) viene quind i

riscritta nella forma p(A)I

mette l'identificazione di Q con -C

nulla. Una dimostrazione pHl diretta dell'identita di Cayley-Hamilton, va- lida per operatori che arnmettono una decomposizione spettrale, e ri portata nel par. 4.2.5.

e abbreviato C). L'identita

l/p(A)

C A - AI

(in seguito, C A - A /'

= -C(AI

- A) che, tramite la [4.59]' per

e di