Sei sulla pagina 1di 15

Gli Spazi Vettoriali

Luca Sabatini

September 8, 2022

1 Introduzione ed esempi
Il concetto di Spazio Vettoriale è stato introdotto già nelle prime pagine, si tratta di una
delle strutture principali dell’intera matematica, senza di essi essa sarebbe molto povera.
Ricordiamo che uno

Definizione 1.1 Sazio Vettoriale è un insieme non vuoto di elementi, detti vettori
nel quale sono definite due operazioni, una interna, la somma tra vettori, ed indicata
col simbolo + , per la quale l’insieme risulta un gruppo commutativo, ed una esterna, la
moltiplicazione per uno scalare, detta anche operazione esterna, indicata col simbolo · che
comunque in moti casi viene omesso, che gode delle proporietà di distributiva sia per la
somma dei vettori che per la somma degli scalari, la associatività del prodotto degli scalari
e di unitarietà dell’elemento 1; esse sono riportate qui sotto per completezza

• Distributività rispetto alla somma degli scalari:

(k + h) · v = k · v + h · v

• Distributività rispetto alla somma degli vettori:

k · (v + w) = k · v + k · w

• Associatività del prodotto degli scalari:

k · (h · v) = (k · h) · v

• Unitarietà dell’elemento 1:

1·v =v

1
L’insieme delle coppie ordinate, terne ordinate, delle matrici, con le operazioni naturali
di somma e prodotto per uno scalare, che sono stati già incontrati, sono esempli classici di
spazi vettoriali, altri esempi sono

Esempio 1.2 Le soluzioni di un sistema lineare omogeneo della forma A · X = 0 definis-


cono uno spazio vettoriale, infatti, se X1 e X2 sono due soluzioni del sistema e a1 ed
a2 sono due scalari, si ha che A · (a1 X1 + a2 X2 ) = A · a1 X1 + A · a2 X2 = a1 0 + a2 0 = 0
ovvero anche una qualunque loro combinazione lineare è soluzione del sistema, tale insieme
è quindi chiuso rispetto alla combinazione lineare e quindi forma uno spazio vettoriale. (Si
suppone ovviamente che le operazioni siano definite coerentemente con le proprietà che
esse devono soddisfare). Viceversa le soluzioni di un sistema lineare non omogeneo del tipo
A · X = B non è uno spazio vettoriale in quanto, prese due soluzioni e fatta la loro somma
si ha A · (X1 + X2 ) = A · X1 + A · X2 = B + B = 2B 6= B , quindi l’insieme non è chiuso
rispetto alla somma.

Esempio 1.3 L’insieme dei polinomi di grado inferiore o uguale ad un numero


intero positivo n in una o più indeterminate, indicati rispettivamente con Pn [x] o con
Pn [x1 , x2 , · · · xn ] , è uno spazio vettoriale (basta pensare come sono definite le operazioni
tra polinomi), tuttavia l’insieme dei polinomi di grado fissato n non è uno spazio
vettoriale in quanto non chiuso rispetto alla somma, basta prendere due polinomi di grado
n con coefficiente direttivo opposto la cui somma è un polinomio di grado inferiore almeno
di uno e non appartenente quindi all’insieme.

Esempio 1.4 L’insieme C 0 (R) delle funzioni continue in tutto l’asse reale è uno
spazio vettoriale, cosı̀ come l’insieme C 0 (E) delle funzioni continue in un intervallo
E e l’insieme CE 0 (E) delle funzioni continue definite in E e che assumono il

valore 0 agli estremi dell’intervallo sono tutti insiemi di spazi vettoriali, tuttavia
l’insieme delle funzioni continue definite in tutto R che assumono un valore assegnato
non nullo in un punto preciso x0 , i.e. f (x0 ) = l 6= 0 non è uno spazio vettoriale in
quanto (f1 + f2 )(x0 ) = f1 (x0 ) + f2 (x0 ) = l + l = 2l 6= l e quindi non è chiuso rispetto alla
somma.

2 Generatori e basi
Le operazioni di somma di vettori e di moltiplicazione per uno scalare possono essere rac-
colte in un’unica operazione detta combinazione lineare, indicata con Lin(v1 , v, · · · , vk ) ,
realizzata sommando k vettori ciascuno moltiplicato per uno scalare:
k
X
Lin(v1 , v, · · · , vk ) = a i vi
i

2
Pk La combinazione lineare di k vettori genera ovviamente un vettore, scrivendo w =
i ai vi indichiamo che il vettore w è combinazione lineare dei k vettori vi .

Considerata quindi una combinazione lineare di k vettori, se questa genera il vettore


nullo 0 solo e soltanto con tutti i coefficienti ai uguali a zero, si dice che i k vettori sono
linearmente indipendenti, altrimenti se esiste una combinazione lineare con almeno un
coefficiente non nullo che generea il vettore nullo, tali vettori sono linearmente dipendenti.
Quindi

Definizione 2.1 Dati k vettori vi , se


k
X
a i vi = 0 =⇒ ai = 0 per ogni i
i

allora essi sono linearmente indipendenti.

Una delle conseguenze della definizione di dipendenza lineare è il fatto che se un sistema
di vettori contiene il vettore nullo, allora questo sistema di vettori è linearmente dipendente,
basta prendere infatti tutti i coefficienti uguali a zero tranne quello relativo al vettore nullo
pari ad uno, si ottiene quindi una combinazione lineare di vettori con coefficienti non tutti
nulli che restituisce il vettore nullo.

Proposizione 2.2 Se k vettori sono tra loro linearmente dipendenti, allora è possibile
scriverne almeno uno di essi come combinazione lineare degli altri k–1.

Prova: Sia ki ai vi = a1 v1 +a2 v2 + · · ·+ak vk = 0 tale combinazione lineare, sappiamo


P
che per definizione esiste almeno un coefficiente non nullo e supponiamo che sia a1 , se non
lo fosse basterebbe rinumerare i vettori, per cui si può scrivere a1 v1 = −a2 v2 − · · · − ak vk ,
dividendo per a1 6= 0 si ottiene la combinazione lineare cercata v1 = − aa12 v2 − · · · − ak vk =
b2 v2 + · · · bk vk essendo bi = − aa1i , i = 2, · · · , k . 

Uno spazio vettoriale quindi può essere costruito partendo da un insieme di vettori
e facendone di essi una combinazione lineare, tali vettori sono quindi detti generatori
dello spazio vettoriale; tali generatori possono essere tra loro linearmente dipendenti o
indipendenti. Ad un sistema S di generatori può essere volta per volta aggiunto un altro
vettore dando luogo ad un altro sistema S 0 di generatori che può generare a sua volta o lo
stesso spazio vettoriale V o un altro spazio vettoriale V 0 a seconda che il nuovo generatore
sia linearmente dipendente da quelli di S o da essi indipendente, si ha la seguente
Proposizione 2.3 Sia S un sistema di generatori di uno spazio vettoriale V e sia w un
vettore, allora lo spazio W generato da S e w è tale che V ⊆ W , il simbolo di uguaglianza
sussiste se e solo solo se w è linearmente dipendente dai vettori di S .

3
Prova: Sia V = Lin(v1 , . . . , vk ) lo spazio vettoriale generato dal sistema di k vettori
S = S(v1 , . . . , vk ) , P
allora ogni vettore v ∈ V è scritto come combinazione lineare dei
vettori di S : v = ki=1 ai vi . Consideriamo ora un vettore generato per combinazione
lineare dai vettori di S e da w, del tipo v+w. Se w è linearmente dipendente daiP vettori di
S allora può essere espresso combinazione lineare dei vettori vi nella forma w = ki=1 bi vi
allora si ha
k
X k
X k
X k
X
Lin(vi ) + w = ai vi + bi vi = (ai + bi )vi = ci vi = Lin(vi )
i=1 i=1 i=1 i=1

e quindi w ∈ S . Viceversa, se w è linearmente indipendente dai vettori di S si ha


ovviamente che w ∈ / V , quindi esiste un vettore non nullo w appartenente a W =
Lin(v1 , v2 , · · · vk ; w) ma non a V , per cui V ⊂ W . 

Possiamo quindi affermare che aggiungendo un vettore ad un sistema di generatori


di uno spazio vettoriale si ottiene o uno spazio vettoriale “ più grande ” o lo stesso spazio
vettoriale a seconda che il vettore aggiunto sia linearmente indipendente o no dai generatori.
Aggiungendo a piacimento tali vettori quindi il processo può andare avanti indefinitamente
dando luogo a spazi vettoriali via via più grandi oppure arrestarsi se oltre un certo punto si
ottengono solo vettori dipendenti, nel secondo caso si parla di spazi vettoriali finitamente
generati, altrimenti si parla impropriamente di spazi vettoriali infinitamente generati.

Esempio 2.4 L’insieme dei polinomi di grado qualsiasi in una indeterminata è uno spazio
vettoriale non finitamente generato in quanto è sempre possibile ottenere un polinomio di
grado più alto aggiungendo ad un polinomio di grado k un polinomio di grado k+1. Al
contrario l’insieme dei polinomi di grado minore o uguale ad un numero fissato k è uno
spazio vettoriale finitamente generatoPin quanto un polinomio di grado k è generato al
massimo da k+1 polinomi: pk (x) = ki=0 ai xi , prendendo ad esempio come generatore
i–esimo il polinomio pi (x) = xi .

Quindi nella generazione di uno spazio vettoriale è possibile limitarsi considerando insiemi
di generatori che però siano tra loro linearmente indipendenti dato che ogni ulteriore gener-
atore linearmente dipendente dagli altri non aggiunge nulla di nuovo a quanto già ottenuto.

Esempio 2.5 Sia V = Lin(v1 , v2 , v3 ) , si ha Lin(v1 , v2 , v3 ) = a1 v1 + a2 v2 + a3 v3 ;


supponiamo che dei tre solo due siano linearmente indipendenti, per cui per la Propo-
sizione 2.2 è possibile scriverne uno come combinazione lineare degli altri due, ad esempio
v3 = k1 v1 + k2 v2 , si ha quindi

Lin(v1 , v2 , v3 ) = a1 v1 + a2 v2 + a3 v3 = a1 v1 + a2 v2 + a3 (k1 v1 + k2 v2 )
= (a1 + a3 k1 )v1 + (a2 + a3 k2 )v2 = b1 v1 + b2 v2 = Lin(v1 , v2 )
per cui l’informazione data da v3 è ridondante e può essere eliminata.

4
Si dà quindi la seguente

Definizione 2.6 Si definisce base di uno spazio vettoriale un insieme di generatori che
siano tra loro linearmente indipendenti.

Nota 2.7 Una volta fissata una base di uno spazio vettoriale, il vettore nullo è sempre
rappresentato da una combinazione lineare di vettori a coefficienti tutti nulli, in virtù della
indipendenza lineare di tali vettori.

Dimostriamo agevolmente il seguente

Teorema 2.8 di esistenza di una base Sia V uno spazio vettoriale finitamente gener-
ato, allora esso almeno una base.

Dimostrazione: Sia v1 6= 0 un vettore non nullo e si consideri un secondo vettore


v2 ; se comunque si scelga tale vettore, esso risulta essere sempre linearmente dipendente
da v1 allora il processo si esaurisce perché V è costituito da tutti i vettore proporzionali
a v1 e quindi costituisce una base di esso, viceversa, se esiste almeno un vettore v2 in-
dipendente da v1 allora si consideri l’insieme delle combinazioni lineari di v1 e v2 , i.e.
V2 = Lin(v1 , v2 ) , esso per come è costruito è uno spazio vettoriale; si consideri quindi un
vettore v3 , se comunque questo si scelga esso è linearmente dipendente da v1 e v2 il pro-
cesso si ferma perché V2 = Lin(v1 , v2 ) ≡ V e quindi v1 e v2 sono generatori linearmente
indipendenti, e quindi una base, dello spazio vettoriale, viceversa se v3 è linearmente in-
dipendente da v1 e v2 allora si consideri l’insieme V3 = Lin(v1 , v2 , v3 ) e si ripeta la
costruzione vista in precedenza... Dato che lo spazio vettoriale per ipotesi è finitamente
generato, ad un verto punto questo processo si “ aggiunta ” si deve arrestare, si è costituito
un insieme di generatori linearmente indipendenti, e quindi una base, di V , provando il
quanto richiesto. 

Dato quindi un sottospazio vettoriale V 0 ⊂ V dotato di una base B 0 , è sempre possibile


costruire una base B di V utilizzando i vettori di B 0 , ciò è possibile grazie al seguente

Teorema 2.9 di completamento della base: Data una base B 0 di un sottospazio V 0


è sempre possibile ottenere una base B di V .

Prova: Se k < n = dimV è la dimensione di V 0 , una sua base B 0 è composta da


k vettori linearmente indipendenti, allora basta prendere in V n − k vettori linearmente
indipendenti non appartenenti a V 0 , in tal modo di ottengono n vettori linearmente in-
dipendenti che generano tutto V , ovvero una sua base B . 

Vale la seguente proposizione di importanza fondamentale:

5
Proposizione 2.10 Sia una base B in uno spazio vettoriale, allora ogni vettore di esso
può essere scritto in una sola maniera come combinazione lineare dei vettori della base, i
coefficienti di tale combinazione lineare sono dette coordinate di tale vettore rispetto alla
base fissata.

Prova: Sia w un vettore, supponiamo che esistano due diverse combinazioni lineari dei
vettori della base che lo esprimano:
k
X k
X
w= ai vi w= bi vi ai 6= bi ∀i
i=1 i=1

si ha
k
X k
X k
X
0=w−w = a i vi − bi vi = (ai − bi )vk
i=1 i=1 i=1

ma per quanto detto in precedenza circa lo sviluppo del vettore nullo deve esse ai − bi = 0
ovvero ai = bi per ogni i, che però contraddice quanto assunto. 

Dati quindi due diversi sistemi di vettori generatori, valgono le seguenti proprietà:

Teorema 2.11 Sia V uno spazio vettoriale finitamente generato, B = {v1 , v2 , . . . , vn }


una sua base e S = {w1 , w2 . . . , wp } , p > n un sistema di vettori di V , allora tali vettori
sono linearmente dipendenti.

Prova: Dato che B è una base di V , è possibile esprimere ogni wi ∈ S in un’unica


maniera come combinazione lineare dei vettori di B :

w1 = a11 v1 + a12 v2 + · · · + a1n vn

w2 = a21 v1 + a22 v2 + · · · + a2n vn


..
. (1)
wp = ap1 v1 + ap2 v2 + · · · + apn vn .
I vettori wi sono linearmente indipendenti se una loro combinazione lineare genera il
vettore nullo 0 , solo con i coefficienti tutti identicamente nulli, quindi se data

x1 w1 + x2 w2 + · · · + xp wp = 0 (2)
questa è verificata per xi = 0 per tutti gli indici i . Sostituendo in (2) le relazioni espresse
da (1) si ottiene

x1 (a11 v1 + a12 v2 + · · · + a1n vn ) + x2 (a21 v1 + a22 v2 + · · · + a2n vn ) +

6
+x3 (a31 v1 + a32 v2 + · · · + a3n vn ) + · · · + xp (ap1 v1 + ap2 v2 + · · · + apn vn ) = 0 .

Riorganizzando la relazione precedente mettendo in evidenza i vettori della base B si ha

(a11 x1 + a21 x2 + · · · + ap1 xp ) v1 + (a12 x1 + a22 x2 + · · · + ap2 xp ) v2 +

(a13 x1 + a23 x2 + · · · + ap3 xp ) v3 + · · · + (a1n x1 + a2n x2 + · · · + apn xp ) vp = 0 .

Ricordando che il vettore nullo ha coordinate 0 = (0, 0, · · · , 0) in tutte le basi, la relazione


precedente è verificata se


 a11 x1 + a21 x2 + · · · + ap1 xp = 0
a12 x1 + a22 x2 + · · · + ap2 xp = 0




..
 .
a1 p−1 x1 + a2 n−1 x2 + · · · + ap n−1 xp = 0




a1n x1 + a2n x2 + · · · + apn xp = 0

che rappresenta un sistema lineare omogeneo di n equazioni in p > n incognite di rango n


in quanto in vettori vi sono linearmente indipendenti; per il Teorema di Rouché Capelli il
sistema è compatibile ed ammette oltre la soluzione banale ∞p−n soluzioni, questo prova
che i vettori wi sono linearmente dipendenti. 

Come conseguenza si ha il seguente fondamentale

Teorema 2.12 Siano B e B 0 due basi di uno spazio vettoriale V , allora le due basi hanno
lo stesso numero di vettori.

Prova Siano n ed n0 rispettivamente il numero di vettori di B e di B 0 , entrambe le


basi sono due sistemi di vettori, per il Teorema precedente non può essere n0 > n altrimenti
i vettori di B 0 sarebbero linearmente dipendenti, in contraddizione con il fatto che B 0 è
una base; nemmeno può essere n > n0 , altrimenti sarebbero dipendenti i vettori di B ,
allora necessariamente n = n0 . 

Possiamo quindi dare la seguente

Definizione 2.13 Si definisce dimensione di uno spazio vettoriale V il numero di vettori


di una qualunque sua base, ovvero il numero massimo di vettori linearmente indipendenti
che in V si possono trovare.

7
Un sottoinsieme W ⊆ V è detto sottospazio vettoriale se è chiuso rispetto alle stesse
operazioni definite in V , un esempio è dato dalle coppie ordinate di numeri reali soluzioni
di un’equazione lineare omogenea che è un sosttospazio delle coppie ordinate di numeri
reali. I sottoinsiemi diversi dall’insieme vuoto e dall’insieme stesso che sono sottospazi
vettoriali di un dato spazio vettoriale sono detti sottospazi propri.

Una condizione necessaria ma non sufficiente affinché un sottoinsieme W ⊂ V sia


un sottospazio di uno spazio vettoriale è che esso contenga il vettore nullo 0, se non lo
contenesse si perderebbe la struttura additiva di gruppo che caratterizza un insieme per
essere uno spazio vettoriale.

Ogni spazio vettoriale finitamente generato, o come si dice di dimensione n, ammette


almeno una base come provato dal seguente

3 Il Teorema di Isomorfismo
Abbiamo visto che esistono molteplici esempi di spazi vettoriali molto diversi tra di loro,
tuttavia esiste un teorema che permette di ridurre tutti gli spazi vettoriali della stessa
dimensione e sullo stesso campo ad un unico rappresentante che li descrive in maniera
semplice. Prima di procedere alla dimostrazione dello stesso è però necessario introdurre
una definizione molto importante.

Sia Φ : V → W un’applicazione tra due spazi vettoriali sullo stesso campo; tale appli-
cazione è detta isomorfismo se

1. è biunivoca ed

2. è compatibile con le operazioni definite nei due spazi, cioè se per ogni v, u ∈ V e
per ogni k ∈ K si ha

Φ(v + u) = Φ(v) + Φ(u) e Φ(kv) = kΦ(v) .

La relazione di isomorfismo è riflessiva, ovvero ogni spazio vettoriale è isomorfo a se stesso,


simmetrica, ovvero se V è isomorfo a W allora W è isomorfo a V ed infine transitiva,
cioè se V è isomorfo a W e W è isomorfo a U allora V è isomorfo a U . Essendo la
relazione di isomorfismo una relazione di equivalenza, possiamo raccogliere in una stessa
classe tutti gli spazi vettoriali tra loro isomorfi e sceglierne un rappresentante. Vale quindi
il seguente

Teorema 3.1 Tutti gli spazi vettoriali della stessa dimensione n sul campo dei reali sono
isomorfi a Rn che ne è quindi il rappresentante.

8
Prova: Sia V uno spazio vettoriale di dimensione n e B = {u1 , u2 , · · · , un } una sua
base; sia v ∈ V , nella base B il vettore v si rappresenta univocamente come

v = x1 u1 + x2 u2 + · · · xn un .

Sia Φ : V → Rn definita da

Φ(v) = (x1 , x2 , · · · , xn )

l’applicazione che ad ogni vettore associa le sue coordinate come n−pla ordinata di Rn ;
tale applicazione è biunivoca perché ad ogni vettore è associata univocamente una n−pla
ordinata e viceversa ad ogni n−pla ordinata di Rn corrispondono le coordinate di un vettore
v di V. Tale applicazione è compatibile con le operazioni dei due spazi, infatti se w è un
secondo vettore di V , con

w = y1 u1 + y2 u2 + · · · yn un .

la sua rappresentazione nella base B , al vettore v+w corrisponde, in coordinate, il vettore

v + w = (x1 u1 + x2 u2 + · · · xn un ) + (y1 u1 + y2 u2 + · · · yn un ) =

= (x1 + y1 )u1 + (x2 + y2 )u2 + · · · (xn + yn )un


ovvero alla n−pla ordinata (x1 +y1 , x2 +y2 , · · · , xn +yn ) = (x1 , x2 , · · · , xn )+(y1 , y2 , · · · , yn )
e se k ∈ R si ha

kv = k(x1 u1 + x2 u2 + · · · xn un ) = kx1 u1 + kx2 u2 + · · · kxn un

a cui corrisponde la n−pla (kx1 , kx2 , · · · , kxn ) = k(x1 , x2 , · · · , xn ) . Quindi

Φ(v+w) = (x1 +y1 , x2 +y2 , · · · , xn +yn ) = (x1 , x2 , · · · , xn )+(y1 , y2 , · · · , yn ) = Φ(v)+Φ(w)

Φ(kv) = k(x1 , x2 , · · · , xn ) = kΦ(v) .

Dato che tale isomorfismo dipende dalla base scelta, ovvero cambiando base mutano le
coordinate del vettore e quindi la sua n−pla in Rn , si dice che esso non è canonico. 

Esempio 3.2 Lo spazio vettoriale M2 (R) è isomorfo ad R4 , un possibile isomorfismo è


dato da:

9
 
a b
Φ = (a, b, c, d)
c d

Nota 3.3 Dato quindi uno spazio vettoriale reale qualsiasi V ed un suo vettore v, una
volta fissata una sua base B sono univocamente individuate le sue coordinate rispetto a
tale base e quindi la sua n-upla ordinata di numeri reali indicata con X, ovvero la sua
rappresentazione come elemento di Rn . Pertanto, un vettore che di per sé è un ente
astratto, una volta fissata una base ottiene una sua rappresentazione come n-upla ordinata
di Rn , ovvero una matrice riga o colonna. A volte le due cose si confondono nel senso che
si considera il vettore come la sa rappresentazione.

Nota 3.4 Per comodità identificheremo le n−ple ordinate di numeri reali con matrici
colonna ad n−righe mantenendo lo stesso ordinamento.

4 Sottospazi Vettoriali
Definizione 4.1 Si definisce sottospazio vettoriale W di uno spazio vettoriale V un
suo sottoinsieme non vuoto che è a sua volta spazio vettoriale rispetto alle stesse operazioni
definite nello spazio vettoriale che lo contiene.

Una condizione necessari affincé un sottoinsieme di uno spazio vettoriale sia un sot-
tospazio vettoriale è che esso contiene il vettore nullo. Tale condizione è necessaria, nel
senso che se un sottoinseme non contiene il vettore nullo esso sicuramente non è spazio
vettoriale, tuttavia tale condizione non è sufficiente dato che ci possono essere sottoinsiemi
che contengono il vettore nullo ma che non sono a loro volta spazi vettoriali, ad esempio
in R2 il sottoinsieme A = x = (x1 , x2 )T ∈ R2 t.c. x21 − x22 = 0 contiene il vettore nullo


ma non è un sottospazio vettoriale.

Ci sono due modi per definire un sottospazio vettoriale e sono stati entrambi visti nei
paragrafi precedenti:
1. la combinazione lineare dei suoi generatori e

2. l’insieme delle soluzioni di un sistema lineare omogeneo.


Come visto sin dall’inizio, entrambe le definizioni sono due modi per rappresentare la
stessa entità, se l’insieme delle soluzionidell’equazione
  omogenea
 2x1 − 3x2 = 0 definisce
x 3
uno spazio vettoriale, la sua soluzione = t· lo rappresenta materialmente.
y 2

10
Pertanto il sistema lineare omogeneo AX = B fornisce P le equazioni cartesiane dello spazio
vettoriale V , le sue soluzioni scritte nella forma X = i ti Xi forniscono quindi le equazioni
parametriche dello stesso. Ricordando che per il Teorema di Rouché Capelli un sistema
lineare omogeneo ammette ∞n−rkA soluzioni, possiamo concludere che

Osservazione 4.2 dato uno spazio vettoriale V , la sua dimenesione è uguale a n − rkA
se esso è definito mediante equazioni cartesiane AX = 0 mentre è uguale al numero
dei generatori linearmente indipendenti se è definito mediante equazioni parametriche, tali
generatori sono anche i vettori di una base del sottospazio se essi sono tutti linearmente
indipendenti.

Si definisce infine co-dimensione di uno spazio vettoriale il numero di equazioni carte-


siane linearmente indipendeneti che servono per definirlo, e si indica con codim V , si ha,
sempre per il Teorema di Rouché Capelli

dim V + codim V = n

essendo n il numero delle incognite.

Dati due sottospazi V e W di uno spazio vettoriale U , che, per il Teorema di Isomor-
fismo visto precedentemente, può sempre essere identificato con Rn , è possibile costruire
due nuovi sottospazi:

1. il sottospazio intersezione V ∩ W ed

2. il sottospazio somma V + W .

Il sottospazio intersezione V ∩ W è definito come l’insieme dei vettori comuni ad


entrambi gli spazi:

V ∩ W = {u ∈ U tali che u ∈ V e u ∈ W}

Tale sottoinsieme è un sottospazio in quanto chiuso rispetto la combinazione lineare di


vettori, presi infatti u1 e u2 appartenenti a V∩W si ha che il vettore u = a1 u1 +a2 u2 ∈ V
dato che entrambi appartengono al primo sottospazio, ma anche a1 u1 + a2 u2 ∈ W dato
che entrambi appartengono al secondo sottospazio; il vettore u appartiene quindi ad en-
trambe, ovvero per definizione alla loro intersezione.

Il sottospazio somma V + W è definito come l’insieme dei vettori che possono essere
scritti come combinazione lineare di un vettore appartenente al primo sottospazio ed uno
al secondo sottospazio; Proviano che è chiuso rispetto alla combinazione lineare, siano
u1 , u2 ∈ V + W , quindi

11
• u1 = a1 v1 + b1 w1 essendo esso esprimibile come combinazione lineare di un vettore
appartenente al primo sottospazio ed uno appartenente al secondo, appartiene al
sottospazio somma V + W .

• per lo stesso motivo si ha u2 = b1 v2 + b2 w2 ∈ V + W.

La loro combinazione lineare k1 u1 + k2 u2 è tale che:

k1 u1 + k2 u2 = k1 (a1 v1 + b1 w1 ) + k2 (a2 v2 + b2 w2 ) = k1 a1 v1 + k1 b1 w1 + k2 a2 v2 + k2 b2 w2

= k1 a1 v1 + k2 a2 v2 + k1 b1 w1 + k2 b2 w2 = (k1 a1 v1 + k2 a2 v2 ) + (k1 b1 w1 + k2 b2 w2 ) = v + w

essendo quindi esprimibile come la somma di un vettore del primo sottospazio e di uno del
secondo, appartiene alla loro somma.

Il sottospazio intersezione è il più grande sottospazio contenuto in entrambi i sottospazi


mentre il sottospazio somma è il più piccolo sottospazio che contiene entrambi i sottospazi.

Siano V e W due sottospazi vettoriali di uno spazio vettoriale U , per essi vale la
Relazione di Grassman:

dim (V ∩ W) + dim (V + W) = dim V + dim W (3)

Prova: Siano dim V = h , dim W = k e dim (V ∩ W) = r ; si consideri una base


BV∩W = {u1 , u2 , . . . , ur } , per il Teroema di completamento delle basi si può completare
la base BV∩W in una base BV di V ed in una base BW di W utilizzando un oppor-
tuno numero di vettori linearmente indipendenti appartenenti a V o a W nella seguente
maniera:
BV = {u1 , u2 , . . . , ur ; v1 , v2 , . . . , vs } s=h−r
BW = {u1 , u2 , . . . , ur ; w1 , w2 , . . . , wt } t=k−r
Il sottospazio V + W è quindi generato da r + s + t = r + h − r + k − r = h + k − r =
dim V +dim W −dim (V ∩ W) vettori, bisogna ora provare che tali vettori sono linearmente
indipendenti, ovvero che la combinazione lineare

a1 u1 + · · · + ar ur + b1 v1 + · · · + bs us + c1 w1 + · · · + ct wt , (4)

dà luogo al vettore nullo per valori tutti nulli dei coefficienti della combinazione lineare;
supponendo che tale combinazione lineare dia il vettore nullo si ha;

a1 u1 + · · · + ar ur + b1 v1 + · · · + bs vs = −c1 w1 − · · · + ct wt , (5)

12
si noti che il primo membro, essendo combinazione lineare dei vettori della base di V ,
appartiene a V mentre il secondo membro, essendo combinazione lineare dei vettori della
base di W , appartiene a W , tale vettore quindi appartenendo ad entrambi i sottospazi
appartiene alla loro intersezione ed è qundi esprimibile come combinazione lineare dei
vettore della prescelta base di BV∩W nella forma

d1 u1 + · · · + dr ur ,

sostituendo nella (6) si ottiene

(a1 − d1 )u1 + · · · + (ar − dr )ur + b1 v1 + · · · + bs vs = 0

dato che i vettori ui , i = 1, 2, . . . r e vj , j = 1, 2, . . . s formano una base di V essi sono


linearmente indipendenti per cui si ha ai − di = 0 e bj = 0 ; sostituendo nella (6) si ottiene

a1 u1 + · · · + ar ur + c1 w1 + · · · + ct wt = 0 ,

ma dato che i vettori ui e wk sono linearmente indipendenti in quanto formano una


base di W si ha che ai = 0 e ck = 0 per ogni i e k, i vettori sono quindi tutti lin-
earmente indipendenti e formano una base di V + W che ha dimensione h + k − r =
dim V + dim W − dim (V ∩ W) provando la Relazione di Grassmann. 

Se dim(V ∩ W) = 0 e dimV + dimW = n si dice che i due sottospazi sono tra loro
in somma diretta che viene indicata col simbolo ⊕ , se due sottospazi sono in somma
diretta, la loro somma genera tutto lo spazio di cui V e W sono sottospazi, per cui ogni
vettore u ∈ U si decompone in un unico modo come somma di un elemento appartenete
al primo ed un elemento appartenente al secondo sottospazio, questo perché come vettori
della base si possono utilizzare i vettori della base BV e quelli dalla base BW e tali basi
non hanno nessun elemento in comune. Qualora i due sottospazi non fossero in somma
diretta, tale decomposizione non sarebbe più unica, infatti se 0 6= t ∈ V ∩ W e se v ∈ V
e w ∈ W si ha, per ogni u ∈ U

u = v + w = (u + t) + (−t + w) = (u − t) + (w + t) .

che esibisce due diverse decomposizioni per il vettore u.

5 Cambiamenti di base
Siano B = {u1 , u2 , . . . , un } e B 0 = {u01 , u02 , . . . , u0n } due distinte basi di uno spazio vetto-
riale V di dimensione n e sia v ∈ V un vettore; ci si propone di stabilire come cambiano le
coordinate di v al variare della base. Per definizione di coordinate di un vettore rispetto
ad una base si ha:

13
v = x1 u1 + x2 u2 + · · · + xn un e v = x01 u01 + x02 u02 + · · · + x0n u0n . (6)

Ciascun vettore della base B 0 può essere espresso come combinazione lineare dei vettori
della base B nella forma

u0i = pi1 u1 + pi2 u2 + · · · + pin un . (7)


dove il primo indice di pij si riferisce al l’i−esimo vettore della base “ nuova ” mentre il
secondo indice si riferisce al j−esimo vettore della base “ vecchia ”.

Indicando con

• X la matrice colonna che esprime le coordinate di v in B ,

• X0 la matrice colonna che esprime le coordinate di v in B 0 e con

• P la matrice quadrata che ha per colonne le coordinate dei vettori della base B 0
nella base B , tale matrice è non singolare in quanto le sue colonne sono linearmente
indipendenti.

le due uguaglianze espresse dalla relazione (6) si traducono nella relazione matriciale

X = P · X0 .

Infatti, sostituendo quanto espresso dalla relazione (7) in (6) si ha, esplicitamente

x1 u1 + x2 u2 + · · · + xn un = x01 (p11 u1 + p12 u2 + · · · + p1n un )+

+x02 (p21 u1 + p22 u2 + · · ·0 p2n un ) + · · · + x0n (pn1 u1 + pn2 u2 + · · · + pnn un ) =


= (x01 p11 + x02 p21 + · · · + x0n pn1 )u1 + (x01 p12 + x02 p22 + · · · + x0n pn2 )u2 + · · ·
+(x01 p1n + x02 p2n + · · · + x0n pnn )un .

Quindi le coordinate di v rispetto alla base B 0 i cui vettori hanno coordinate espresse dalla
matrice colonna Pi una volta note le loro coordinate rispetto ad una base B sono date
dalla relazione

X0 = P−1 · X (8)

14
Tale relazione che può sembrare astrusa e poco chiara in realtà è nota sin dalle prime
ore di lezione in quanto, considerato il sistema lineare

2x1 − 3x2 = 7
(9)
−3x1 + 5x2 = −4
questo può essere scritto come
     
2 −3 7
· x1 + · x2 = (10)
−3 5 −4
 
7
Possiamo interpretare la coppia come le coordinate di un vettore rispetto ad
−4
   
2 −3
una base, i.e. quella canonica, e e come le coordinate di due vettori
−3 5
indipendenti sempre rispetto alla base canonica. Risolvere il sistema  (9) significa anche
7
risolverlo nella forma (10) cioè calcolare le coordinate del vettore rispetto alla
−4
   
2 −3
base formata da e . Dato che gli ultimi due vettori sono indipendenti,
−3 5
essi formano una base di R2 , quindi il sistema scritto nella forma
    
2 −3 x1 7
=
−3 5 x2 −4

la cui soluzione è data, per il Teorema di Cramer, da


   −1       
x1 2 −3 7 5 3 7 23
= = =
x2 −3 5 −4 3 2 −4 13

che è formalmente un’applicazione della formula del  cambiamento


 di base espresso dalla
7
relazione (8). Quindi lo stesso vettore ha coordinate rispetto alla base canonica
−4
     
23 2 −3
e coordinate rispetto alla base formata dai vettori e .
13 −3 5

15

Potrebbero piacerti anche