Sei sulla pagina 1di 36

Appunti di Algebra Lineare e Matrici

Basilio Bona Dipartimento di Automatica e Informatica Politecnico di Torino

Internal Report: DAUIN/BB-2003-09-01

Capitolo 1

Matrici e vettori

Il lettore interessato pu`o fare riferimento a numerosi libri che trattano le matrici e l’algebra vettoriale; in lingua italiana posso suggerire i testi di base [8, 9], in inglese un classico per la teoria della matrici `e rappresentato da [4], mentre per l’algebra lineare consiglio il testo di Strang [10]. Le lezioni videoregistrate di quest’ultimo sono visibili alla pagina Web del MIT OpenCourseWare, all’indirizzo [1].

1.1

Definizioni

Con il termine matrice si definisce un insieme composto da elementi ordinati in m righe e n colonne, che viene indicato da una delle notazioni seguenti:

A = A m×n = [a ij ] =

a

a

11

21

.

.

.

a

a

12

22

.

···

···

.

.

.

a

a

1n

2n

.

a m1 a m2 ··· a mn

Gli elementi a ij posso essere variabili reali, quando a ij R o variabili complesse, quando a ij C; allora si scrive A R m×n oppure A C m×n . In questa Appendice consideriamo di solito matrici reali, salvo quando espressamente dichiarato. Se n = 1, abbiamo una matrice particolare, detta vettore colonna o semplicemente vettore.

Data una matrice A m×n si definisce matrice trasposta la matrice ottenuta scambian- do le righe e le colonne

A

T

n×m =

a

a

11

12

.

.

.

a

a

21

22

.

···

···

.

.

.

a

a

m1

m2

.

a 1n a 2n ··· a mn

Vale la propriet`a che (A T ) T = A.

2

Basilio Bona - Algebra Lineare e Matrici

3

Una matrice si dice quadrata se m = n. Se una matrice `e quadrata, anche la sua

trasposta `e quadrata. Una matrice quadrata n × n si dice triangolare superiore se

a ij

= 0 per i > j

A n×n =

a 11 a 12 ··· a

.

.

···

0

···

0

.

.

.

0

22

.

.

a

a

a

1n

2n

.

nn

Se una matrice quadrata `e triangolare superiore, la sua trasposta `e triangolare inferiore

A

T

n×n =

a

a 12 a 22 ···

.

.

···

0

11

.

.

.

.

.

0

0

.

a 1n a 2n ··· a nn

Se una matrice K ha elementi complessi k ij = a ij + jb ij , (dove j = 1) si indica

con K la matrice coniugata, ossia quella che ha elementi k ij = a ij jb ij .

Data una matrice complessa K , si chiama matrice aggiunta K la matrice trasposta

coniugata, K = K T = K T . Alcuni testi indicano questa matrice con il simbolo K oppure con il simbolo K H .

Una matrice reale quadrata si dice simmetrica se A = A T , una matrice complessa si dice autoaggiunta o hermitiana se K = K . In una matrice reale simmetrica vi

sono al pi`u n(n + 1)

2

elementi indipendenti.

Una matrice quadrata si dice diagonale se a ij = 0 per i

= j

a 1

0

0

 

.

.

.

A n×n = diag(a i ) =

0

a 2

.

0

···

···

.

.

···

.

0

0

.

a n

Una matrice diagonale `e sempre simmetrica.

Una matrice quadrata A si dice antisimmetrica se A = A T ; dati i vincoli imposti da questa relazione, la matrice antisimmetrica ha la seguente struttura

A n×n =

0

a

12

.

.

.

a 1n

a 12

0

.

a 2n

···

···

.

.

···

.

a

a

1n

2n

.

0

elementi indipendenti e non

nulli. Vedremo in seguito alcune importanti propriet`a delle matrici antisimmetriche

In una matrice antisimmetrica vi sono al pi`u n(n 1)

2

Basilio Bona - Algebra Lineare e Matrici

4

1.2 Operazioni sulle matrici

Le matrici sono elementi di un’algebra (lineare) detta algebra della matrici .

Ricordiamo che, in generale, un’algebra `e uno spazio lineare (vettoriale) con l’ag- giunta di un operatore (prodotto) bilineare. 1

Uno spazio lineare `e una struttura matematica in cui sono definiti gli elementi dello spazio, che indicheremo, per il caso che stiamo trattando, con il simbolo maiuscolo grassetto A, e alcune altre condizioni, qui di seguito elencate:

1) `e definita un’operazione di somma, indicata con il simbolo +; la somma deve essere commutativa. Esiste un elemento neutro rispetto alla somma detto O. Esso prende il nome di elemento nullo (relativamente alla somma).

2) per ogni elemento A dello spazio, data una variabile α reale o complessa 2 , esiste l’operazione di prodotto per α, tale che αA appartiene ancora allo spazio. Inoltre, date due variabili scalari α e β,

(a)

vale la propriet`a associativa rispetto al prodotto degli scalari: α(βA) = (αβ)A;

(b)

vale la propriet`a distributiva rispetto alla somma: α(A+B ) = αA+αB ;

(c)

vale la propriet`a distributiva rispetto al prodotto per scalare: (α +β)A = αA + βA;

Nel caso particolare delle matrici queste propriet`a generali prendono le forme parti- colari descritte nel seguito.

Prodotto per scalare

αA = α

a

a

11

21

.

.

.

a

a

12

22

.

···

···

.

.

.

a

a

1n

2n

.

a m1 a m2 ··· a mn

=

αa

αa

.

.

.

11

21

αa

αa

.

12

22

·

·

.

·

·

.

·

·

.

αa

αa

.

1n

2n

αa m1 αa m2 · · · αa mn

1 per bilinearit`a si intende la linearit`a rispetto a entrambi gli operandi. 2 ci limiteremo a considerare il caso di α reale.

Basilio Bona - Algebra Lineare e Matrici

5

Somma di matrici

A + B =

a 11 + b 11 a 21 + b 21

.

.

.

a m1 + b m1

a 12 + b 12 a 22 + b 22

.

a m2 + b m2

···

···

.

···

.

.

a 1n + b 1n a 2n + b 2n

.

a mn + b mn

Per poter essere sommate, le matrici devono avere le stesse dimensioni.

Valgono le seguenti propriet`a, che sono state genericamente affermate nella condi- zione 1) precedente:

=

A A
A B + A A + (B + C) A T + B T

+ O

+ B

=

=

=

(A + B) + C (A + B) T

L’elemento neutro o nullo O prende il nome di matrice nulla. L’operazione differenza viene definita con l’ausilio dello scalare α = 1:

A B = A + (1)B.

Prodotto di matrici

Indicheremo per ora l’operatore prodotto con il simbolo ·, ma nell’uso comune esso viene quasi sempre omesso, come si usa fare per il simbolo di prodotto tra grandezze scalari.

L’operazione si effettua con la ben nota regola “riga per colonna”: il generico elemento c ij della matrice prodotto C m×p = A m×n · B n×p vale

n

c ij =

a ik b kj

k=1

La propriet`a di bilinearit`a del prodotto tra matrici `e garantita, in quanto si verifica immediatamente che, dato uno scalare generico α, vale la seguente identit`a:

α(A · B) = (αA) · B = A · (αB)

Valgono le seguenti propriet`a, anch’esse genericamente fissate nelle condizioni 2) (a)-(c) precedenti:

A · B · C = (A · B) · C = A · (B · C)

A · (B + C) =

(A + B) · C = A · C

(A · B) T = B T · A T

A · B + A · C

+ B · C

In generale si verifica quanto segue:

Basilio Bona - Algebra Lineare e Matrici

6

il prodotto tra matrici non `e commutativo:

particolari;

A · B

=

B · A, salvo in casi

A · B = A · C non implica B = C , salvo in casi particolari;

A·B = O non implica che sia A = O oppure B = O, salvo in casi particolari.

Esiste un elemento neutro rispetto al prodotto, che prende il nome di matrice identit`a e viene indicata con I n oppure semplicemente I quando non ci sono ambiguit`a nella dimensione; data una matrice rettangolare A m×n si ha

A m×n = I m A m×n = A m×n I n .

Oltre a queste operazioni fondamentali, esistono altre funzioni su matrici che elen- cheremo brevemente nel seguito.

Potenza di matrice

Data una matrice quadrata A R n×n , la potenza k-esima di matrice vale

A k = A · A · · · A

k volte

Una matrice si dice idempotente se

Traccia

A 2 = A.

La traccia di una matrice quadrata A n×n `e la somma dei suoi elementi diagonali

tr (A) =

n

k=1

a kk

La traccia di una matrice soddisfa le seguenti propriet`a

tr (αA + βB) = α tr (A) + β tr (B) tr (AB ) = tr (BA)

tr (A) = tr

tr (A) = tr

(A T ) (T 1 AT )

per T non singolare (vedi oltre)

Basilio Bona - Algebra Lineare e Matrici

7

Determinante

Data la matrice A R n×n , indichiamo con A (ij) la matrice quadrata di dimensioni (n 1) × (n 1) ottenuta cancellando la i-esima riga e la j-esima colonna della matrice A. Ad esempio, data la matrice

si ha

  −6 1 −5 3 2 4 9 −7 A =   −4
 −6
1
−5
3
2
4
9
−7
A =
 
−4
7
−8
2
0
−9
−2
−3
1
−5
2
A (23)
= 
7
−4
2
0 −9
−3

Si definisce minore di ordine p di una matrice A m×n il determinante D p di una sottomatrice quadrata ottenuta selezionando p righe e p colonne qualsiasi di A m×n . Esistono tanti minori quante sono le scelte possibili di p su m righe e p su n colonne.

Si definiscono minori principali di ordine k di una matrice A m×n i determinanti D k , con k = 1, · · · , min{m, n}, ottenuti selezionando le prime k righe e k colonne della matrice A m×n .

Si definisce minore complementare D rc di un generico elemento a rc di una matrice quadrata A n×n il determinante di A (rc)

D rc = det(A (rc) ).

Si definisce complemento algebrico o cofattore (in inglese cofactor ) di un elemento a rc di una matrice quadrata A n×n il prodotto

A rc = (1) r+c D rc

Una volta definito il complemento algebrico si pu`o definire il determinante di A.

Fissata una qualsiasi riga i, si ha la definizione per riga:

det (A) =

n

k=1

a ik (1) i+k det (A (ik) ) =

n

k=1

a ik A ik

oppure, fissata una qualsiasi colonna j, si ha la definizione per colonna:

det (A) =

n

k=1

a kj (1) k+j det (A (kj) ) =

n

k=1

a kj A kj

Poich´e le precedenti definizioni sono ricorsive e coinvolgono i determinanti di minori via via pi`u piccoli, occorre definire il determinante della matrice 1 × 1, che vale det (a ij ) = a ij .

In generale si hanno le propriet`a seguenti:

Basilio Bona - Algebra Lineare e Matrici

8

det(A · B) = det(A) det(B);

det(kA n×n ) = k n det(A n×n );

se si effettua un numero s di scambi tra righe o tra colonne della matrice A ottenendo la matrice A s , si ha det(A s ) = (1) s det(A);

se la matrice A ha due righe o due colonne uguali o proporzionali, si ha det(A) = 0;

se la matrice A ha una riga o una colonna ottenibile da una combinazione lineare di altre righe o colonne, si ha det(A) = 0;

se la matrice A n×n `e triangolare superiore o inferiore, si ha det(A n×n ) =

det(A T ) = det(A);

n

i=1

a ii ;

se la matrice A n×n `e triangolare a blocchi, con p blocchi A ii sulla diagonale, si ha det(A n×n ) = i=1 p det A ii ;

Una matrice A si dice singolare se det(A) = 0.

Rango

Si definisce rango (o caratteristica) della matrice A m×n il numero ρ(A m×n ) definito come il massimo intero p per cui esiste almeno un minore D p non nullo.

Valgono le seguenti propriet`a:

ρ(A) min{m, n};

se ρ(A) = min{m, n}, la matrice A si dice a rango pieno;

ρ(A · B ) min{ρ(A), ρ(B)}.

ρ(A) = ρ(A T );

ρ(A · A T ) = ρ(A T · A) = ρ(A);

D’ora in poi il prodotto tra matrici A · B sar`a indicato semplicemente come AB .

Matrice aggiunta

Data una matrice quadrata A R n×n , si definisce matrice aggiunta di A la matrice quadrata Adj(A) = {α ij } i cui elementi α ij sono definiti come

α ij = (1) i+j D ji

ossia quella matrice che ha come elemento di riga i e colonna j il minore comple- mentare del corrispondente elemento a ji di riga j e colonna i.

Basilio Bona - Algebra Lineare e Matrici

9

Matrice inversa

Data una matrice quadrata A R n×n si dice invertibile o non singolare se esiste la matrice inversa A n×n tale che

AA 1 = A 1 A = I n

La matrice `e invertibile se e solo se ρ(A) = n, ossia `e di rango pieno; ci`o equivale

ad avere det(A)

L’inversa si ottiene come:

1

= 0.

A 1 =

1

det(A) Adj(A)

Valgono le seguenti propriet`a:

(A 1 ) 1 = A;

(A T ) 1 = (A 1 ) T .

Si definisce matrice ortonormale la matrice quadrata per cui A 1 = A T . Per queste matrici vale quindi l’identit`a

A T A = AA T = I

Date due matrici quadrate di pari dimensioni A e B, vale la seguente identit`a

(AB ) 1 = B 1 A 1

Esiste un importante risultato, chiamato Lemma d’inversione, che stabilisce quanto segue: se A e C sono matrici quadrate invertibili e B e D sono matrici di dimensioni opportune, allora

(A + BCD) 1 = A 1 A 1 B(DA 1 B + C 1 ) 1 DA 1

La matrice (DA 1 B + C 1 ) deve essere anch’essa invertibile.

Se la matrice quadrata A(t) `e composta da elementi a ij (t) tutti derivabili nel tempo t, allora la derivata della matrice vale

dt A(t) = A(t) = dt a ij (t) = [˙a ij (t)]

d

˙

d

Se la matrice quadrata A(t) ha rango ρ(A(t)) = n per ogni valore del tempo t, allora la derivata della sua inversa vale

d

dt A(t) 1 = A 1 (t) A(t)A(t) 1

˙

La matrice inversa, quando esiste, permette risolvere la trasformazione lineare

y = Ax

in funzione dell’incognita x , come

x = A 1 y.

Basilio Bona - Algebra Lineare e Matrici

10

Decomposizione di matrice

Data una matrice quadrata A, `e sempre possibile decomporla in una somma di due matrici, come segue:

(1.1)

dove

A = A s + A a

`e

una matrice simmetrica e

A

s

=

2 1 (A + A T )

1

A a = 2 (A A T )

`e

Data una matrice reale di dimensioni qualsiasi A R m×n , risultano simmetriche entrambe le matrici seguenti A T A R n×n

una matrice antisimmetrica (vedi Sezione 1.4).

AA T R m×m

Trasformazioni di similarit`a

Data una matrice quadrata A R n×n e una matrice quadrata non singolare T R n×n , la matrice B R n×n ottenuta come

B

= T 1 AT

oppure

B = TAT 1

si dice similare ad A e la trasformazione si dice di similarit`a. Se la matrice A `e similare alla matrice diagonale Λ = diag(λ i )

si pu`o scrivere

A = TΛT 1

AT =

e se indichiamo con t i la i-esima colonna di T , ossia

T

= t 1

···

t n

avremo la nota formula che lega autovalori e autovettori (vedi Paragrafo 1.2.1)

At i = λ i t i

e quindi potremo dire che le costanti λ i sono gli autovalori di A e i vettori t i sono gli autovettori di A, in generale non normalizzati.

Basilio Bona - Algebra Lineare e Matrici

11

1.2.1 Autovalori e autovettori

Data una matrice quadrata A n×n , si chiamano autovalori della matrice (in inglese eigenvalue) le soluzioni λ i (reali o complesse) dell’equazione caratteristica

det(λI A) = 0

det(λI A) `e un polinomio in λ, detto polinomio caratteristico.

Se gli autovalori sono tutti distinti, si chiamano autovettori (in inglese eigenvector )

i vettori u i che soddisfano l’identit`a

Au i = λ i u i

Se gli autovalori non sono tutti distinti, si ottengono autovettori generalizzati, la cui determinazione va oltre gli scopi di questa Appendice.

Geometricamente gli autovettori rappresentano quelle particolari “direzioni” nello spazio R n , in cui si applica la trasformazione lineare rappresentata da A, che si tra- sformano in s´e stesse; sono quindi le direzioni invarianti rispetto alla trasformazione A e gli autovalori forniscono le rispettive costanti di “scalamento” lungo queste direzioni.

L’insieme degli autovalori di una matrice A sar`a indicato con Λ(A) oppure con {λ i (A)}; l’insieme degli autovettori di A sar`a indicato con {u i (A)}. In generale, essendo gli autovettori delle rappresentazioni di direzioni invarianti rispetto alla trasformazione rappresentata da A, essi sono definiti a meno di una costante, ossia possono o meno essere normalizzati; tuttavia `e convenzione tacita che essi abbiano norma unitaria, salvo quando altrimenti dichiarato.

Propriet`a degli autovalori

Data una matrice A e i suoi autovalori {λ i (A)}, sar`a

{λ i (A + cI )} = {(λ i (A) + c)}

Data una matrice A e i suoi autovalori {λ i (A)}, sar`a

{λ i (cA)} = {(i (A)}

Data una matrice triangolare (superiore o inferiore)

a 11

0

.

.

.

0

a

a

12

22

.

0

···

···

. ··· a nn

a

a

1n

2n

.

.

.

,

a

a

11

21

.

.

.

0

a

22

.

···

···

.

.

.

0

0

.

a n1 a n2 ··· a nn

Basilio Bona - Algebra Lineare e Matrici

12

i suoi autovalori sono gli elementi sulla diagonale {λ i (A)} = {a ii }; lo stesso vale per una matrice diagonale. Data una matrice A n×n e i suoi autovalori {λ i (A)}, sar`a

e

det(A) =

tr (A) =

n

i=1

n

i=1

λ i

λ i

Data una qualunque trasformazione invertibile, rappresentata dalla matrice T , gli autovalori di A sono invarianti alle trasformazioni di similarit`a

˜

A

= T 1 AT

ossia

{λ i ( A)} = {λ i (A)}

Se costruiamo una matrice di trasformazione M ordinando per colonne gli autovet- tori normalizzati u i (A) M = u 1 ··· u n

˜

allora la trasformazione di similarit`a fornisce una matrice diagonale

Λ =

λ 1

0

.

.

.

0

0

λ 2

.

0

···

···

.

.

···

.

0

0

.

λ n

 

= M 1 AM

La matrice M si chiama matrice modale. Se la matrice A `e simmetrica, i suoi autovalori sono tutti reali e si ha l’identit`a

Λ = M T AM

In questo caso la matrice M `e ortonormale.

1.2.2 Decomposizione ai valori singolari

Data una matrice A R m×n qualsiasi, di rango r = ρ(A) s con s = min{m, n}, essa si pu`o fattorizzare secondo la decomposizione ai valori singolari, come segue:

dove:

A = UΣV T

(1.2)

Basilio Bona - Algebra Lineare e Matrici

13

U `e una matrice (m × m) ortonormale

U = u 1

···

u m ;

UU T = I m

contenente per colonne gli autovettori u i della matrice AA T

V `e una matrice n × n ortonormale

V = v 1

···

v n ;

VV T = I n

contenente per colonne gli autovettori v i della matrice A T A

Σ `e una matrice (m × n) con la seguente struttura

se m < n

se m = n

se m > n

Σ

= Σ s

Σ = Σ s

Σ = Σ s

O

O

.

La matrice Σ s = diag(σ i ) `e diagonale di dimensioni s × s e contiene sulla diagonale i valori singolari, definiti come segue.

σ i (A) 0 sono detti valori singolari e coincidono con le radici quadrate non negative degli autovalori della matrice simmetrica A T A:

σ i (A) = λ i (A T A) = λ i (AA T )

ordinati in ordine decrescente

σ 1 σ 2 ≥ ··· ≥ σ s 0

σ i 0

se r < s vi sono r valori singolari positivi, mentre i restanti s r sono nulli:

σ 1 σ 2 ≥ ··· ≥ σ r > 0;

σ r+1 = ··· = σ s = 0

Alternativamente, possiamo descrivere la decomposizione della matrice A nel modo seguente, che `e del tutto analogo a quello dato in (1.2), ma mette in evidenza i soli valori singolari positivi:

dove

Σ r O

O

O

Q T

˜

Q

T = r Q T =

A = P

˜

P

U
U

Σ

V T

s

i=1

σ i p i q

T

i

(1.3)

Basilio Bona - Algebra Lineare e Matrici

14

˜

P `e una matrice ortonormale m×r, P `e una matrice ortonormale m×(mr);

Q `e

Σ r `e una matrice diagonale r × r che contiene sulla diagonale i soli valori singolari positivi σ i , i = 1, ··· , r.

una matrice ortonormale n × r, Q T `e una matrice ortonormale n × (n r);

Il rango r della matrice A `e pari al numero r s di valori singolari non nulli.

Un altro modo ancora di definire la decomposizione SVD di A m×n `e il seguente:

dove ora

A m×n = UΣV T

(1.4)

U `e una matrice (m × n) ortonormale

= u 1

I vettori colonna u i di U

corrispondono agli n autovettori della matrice A T A, cio`e A T Au i = σ

U

u n

···

sono chiamati vettori singolari sinistri di A, e

i 2 u i .

V `e una matrice n × n ortonormale

V

= v 1

···

v n

I vettori colonna v i di V sono chiamati vettori singolari destri di A, e corri-

spondono agli m autovettori della matrice AA T , cio`e AA T v i = σ

Σ `e una matrice (n × n) diagonale Σ = diag(σ i ) e contiene sulla diagonale i valori singolari, definiti come descritto sopra.

i 2 v i .

Si fa notare che:

La decomposizione singolare esiste sempre ed `e unica, a meno

1. di identiche permutazioni delle colonne di U , V , Σ ,

2. combinazioni lineari di colonne di U e V con con uguali valori singolari.

data una matrice A R m×n qualsiasi, le due matrici A T A e AA T sono simmetriche, hanno gli stessi valori singolari positivi e differiscono soltanto per il numero di valori singolari nulli.

Altre propriet`a della decomposizione singolare

le colonne u i che corrispondono a valori singolari positivi sono una base per lo spazio immagine (range) di A.

le colonne v i che corrispondono a valori singolari positivi sono una base per lo spazio nullo (kernel o null-space) di A.

Basilio Bona - Algebra Lineare e Matrici

15

1.3 Vettori e spazi vettoriali

Un vettore pu`o essere semplicemente interpretato come una particolare matrice colonna di dimensioni n × 1:

v =

v

v

.

.

.

v

1

2

n

Esso gioca un ruolo fondamentale in molti campi dell’ingegneria, dalla modellisti-

ca dei sistemi dinamici alla cinematica dei corpi rigidi nello spazio tridimensio-

nale, dall’elettromagnetismo alla statica – per citarne solo alcuni – permettendo

di passare agevolmente dalla rappresentazione algebrica di un fenomeno alla sua

rappresentazione geometrica e viceversa.

Nella Sezione 1.2

abbiamo gi`a fatto conoscenza con gli spazi vettoriali delle matrici. Ora ne daremo una definizione pi`u completa.

In generale, un vettore `e un elemento di uno spazio vettoriale.

1.3.1 Spazio vettoriale

Come detto sopra, gli elementi di uno spazio vettoriale rappresentano entit`a assai utili nello studio di molti settori dell’ingegneria e della fisica classica e moderna [3].

Dato un campo 3 qualsiasi F , lo spazio vettoriale (in inglese vector space) V(F), `e l’insieme di quegli elementi, chiamati vettori , che soddisfano le seguenti propriet`a assiomatiche:

1. esiste l’operazione +, detta somma vettoriale, tale che {V(F ); +} forma un gruppo abeliano; l’elemento identit`a `e chiamato 0;

2. per ogni α ∈ F e ogni v V(F ), esiste un vettore αv V(F); inoltre per ogni α, β ∈ F e ogni v , w V(F ) valgono le seguenti propriet`a:

associativa rispetto al prodotto per scalare:

identit`a rispetto al prodotto per scalare:

distributiva rispetto alla somma vettoriale:

distributiva rispetto al prodotto per scalare:

α(βv ) = (αβ)v 1(v ) = v ; v α(v + w ) = αv + αw (α + β)v = αv + βv

(1.5)

Uno spazio vettoriale `e detto reale se F = R, `e detto complesso se F = C.

3 per le definizioni di campo e gruppo, vedere [2, Appendice A]

Basilio Bona - Algebra Lineare e Matrici

16

Esempio classico di spazio vettoriale reale `e quello rappresentato da n-ple di reali, V n (R) = R n ; in questi casi un elemento (vettore) viene rappresentato per componenti

v =

v

v

.

.

.

v

1

2

n

,

v R n , v i R

Poich´e le propriet`a (1.5) inducono una struttura lineare sullo spazio V, esso viene indicato anche con il termine di spazio vettoriale lineare o semplicemente spazio lineare (in inglese linear vector space o semplicemente linear space).

Il termine “vettore” ha un significato molto ampio, nel senso che essa include entit`a

matematiche in apparenza anche molto diverse. Ad esempio, non solo le n-ple di reali, ma anche le sequenze infinite di numeri reali o complessi, le funzioni continue che assumono valori reali nell’intervallo [a, b], i polinomi a coefficienti complessi

definiti nell’intervallo [a, b] ecc. [7].

Come si pu`o notare, tra gli assiomi dello spazio vettoriale non compare alcuna operazione di prodotto.

Per questo motivo la struttura dello spazio vettoriale, ossia l’insieme di propriet`a che derivano dagli assiomi, non permette di definire concetti geometrici quali l’angolo

o la distanza, che invece sono impliciti nella definizione puramente geometrica di

vettore. Per consentire di definire tali concetti `e necessario dotare lo spazio vettoriale di una struttura quadratica o metrica. L’introduzione di una metrica in uno spazio vettoriale genera un’algebra che rende possibile l’esecuzione di calcoli su oggetti geometrici. La metrica pi`u comune `e quella indotta dalla definizione di prodotto scalare.

Prima di passare alla definizione di questo prodotto, riassumiamo brevemente alcune propriet`a delle funzioni lineari.

1.3.2 Funzioni lineari

Dati due spazi vettoriali U(F ) e V(F ), che per comodit`a assumiamo definiti entrambi sul campo F, una funzione L : U V si dice lineare, se per ogni a, b U e λ ∈ F valgono i seguenti assiomi:

L(a + b) = L(a) + L(b) = La + Lb L(λa) = λL(a) = λLa

(1.6)

La funzione lineare L : U U viene anche chiamata operatore lineare, trasforma- zione lineare, applicazione lineare oppure endomorfismo (in inglese endomorphism).

L’insieme di tutte le funzioni lineari L : U V forma, a sua volta, uno spazio lineare vettoriale L(F ).

Basilio Bona - Algebra Lineare e Matrici

17

L’insieme delle funzioni lineari L : U U forma un anello, indicato con il simbolo End(U).

Ricordiamo infine che qualsiasi funzione o trasformazione lineare da U a V `e rap- presentabile con una matrice quadrata A R m×n , dove m e n sono le dimensioni (vedere pi`u oltre la definizione di dimensione) rispettivamente di V e U.

Indipendenza lineare – Base – Dimensione

Dati n vettori qualsiasi a i V(F ), un vettore generico v V(F ) `e detto combina-

zione lineare di {a 1 , a 2 ,

, a n } se esso pu`o essere scritto come

v = v 1 a 1 + v 2 a 2

+ ··· v n a n

con v i ∈ F . L’insieme di vettori {a 1 , a 2 ,

se nessun a i pu`o essere scritto come combinazione lineare dei restanti a j , j

altre parole, l’unica soluzione dell’equazione

, a n } `e detto linearmente indipendente

= i. In

v 1 a 1 + v 2 a 2 + ··· v n a n = 0

`e quella con v 1 = v 2 = ··· = v n = 0. dipendente dagli altri vettori.

Nella combinazione lineare v = v 1 a

no linearmente indipendenti, allora gli scalari v i sono unici e prendono il nome di

+ ··· v n a n , se tutti i vettori a i so-

In caso contrario si dice che a i `e linearmente

1 + v 2 a 2

coordinate o componenti di v .

Le combinazioni

Si dice che questo sottospazio `e

coperto o descritto (in inglese spanned ) da {a 1 , a 2 ,

, a n } che risulti linearmente indipendente, forma

una base in V. Tutte le basi in V hanno lo stesso numero di elementi (nel nostro

Ogni insieme di vettori {a 1 , a 2 ,

, a k }, con

k n, formano un sottospazio S(F ) V(F ).

lineari di vettori linearmente indipendenti {a 1 , a 2 ,

, a k }.

caso n), che prende il nome di dimensione dello spazio e si indica con dim(V).

1.3.3 Matrici come rappresentazione di operatori lineari

Dati due spazi vettoriali X ⊆ R n e Y ⊆ R m , aventi rispettivamente dimensioni n e m, e dati due generici vettori x ∈ X e y ∈ Y, la pi`u generica trasformazione lineare tra gli spazi si pu`o rappresentare attraverso l’operatore matriciale A R m×n , come segue:

y = Ax ;

x R n ; y R m .

Quindi una matrice pu`o essere sempre interpretata come un operatore che prende

un

vettore dello spazio di “partenza” X e lo trasforma in un vettore dello spazio

di

“arrivo” Y.

Qualunque trasformazione lineare ha (almeno) una matrice che la

Basilio Bona - Algebra Lineare e Matrici

18

rappresenta e, di converso, qualunque matrice `e la rappresentazione di una qualche trasformazione lineare.

Si

definisce spazio immagine (in inglese range) della trasformazione A il sottospazio

di

Y definito dalla seguente propriet`a:

R(A) = {y | y = Ax , x ∈ X };

R(A) ⊆ Y

Si

definisce spazio nullo (in inglese kernel o null-space) della trasformazione A il

sottospazio di X definito dalla seguente propriet`a:

N (A) = {x | 0 = Ax ,

x ∈ X };

N (A) ⊆ X

Lo spazio nullo rappresenta cio`e tutti quei vettori di X che vengono trasformati nel vettore nullo (l’origine) di Y.

Le dimensioni dello spazio immagine e dello spazio nullo si chiamano, rispettivamen- te, rango ρ(A) (che abbiamo gi`a definito in 1.2) e nullit`a ν(A):

ρ(