Sei sulla pagina 1di 10

1 Spazi vettoriali

1.1 Definizioni ed assiomi


Definizione 1.1 Un campo è un insieme K dotato di una operazione somma K × K → K,
(x, y) 7→ x + y e di una operazione prodotto K × K → K, (x, y) →
7 xy tali che

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva;

ii) la somma ammetta un elemento neutro cioè un elemento, denotato 0, tale che x + 0 = x
per ogni x ∈ K;

iii) il prodotto ammetta un elemento neutro denotato 1;

iv) ogni elemento x ∈ K ammetta un inverso additivo −x, cioè un elemento tale che x+(−x) =
0;

v) ogni elemento x ∈ K, con x 6= 0, ammetta un inverso moltiplicativo x−1 , cioè un elemento


tale che xx−1 = 1;

Osservazione 1.2 Esempi significativi sono il campo dei numeri reali R, il campo dei numeri
complessi C e il campo dei numeri razionali Q. Di particolare interesse per l’informatica è
il campo con due elementi F2 che consiste degli elementi 0 ed 1 con le operazioni 0 + 0 = 0,
0 + 1 = 1, 1 + 1 = 0 e 0 · 0 = 0, 0 · 1 = 0 e 1 · 1 = 1. Si può verificare che tali operazioni
definiscono una struttura di campo.
In questo corso i campi che utilizzeremo sono soltanto i campi R e C. Ove non sia necessario
specificare a quale dei due campi ci si riferisca, utilizzeremo la notazione K.

Definizione 1.3 Definiamo K-spazio vettoriale (o spazio vettoriale sul campo K) un insieme
V dotato delle due seguenti applicazioni:

1. Somma:

+: V ×V → V
(v, w) 7 → v+w

2. Prodotto per scalare:

·: K×V → V
(α, v) 7 → α·v

3
1. Spazi vettoriali

tali che valgano le seguenti proprietà:

(P1) Proprietà associativa di +: ∀v, w, z ∈ V si ha (v + w) + z = v + (w + z) ;

(P2) Proprietà commutativa di +: ∀v, w ∈ V si ha v + w = w + v ;

(P3) Esistenza dell’elemento neutro di +: esiste un elemento 0 ∈ V tale che ∀v ∈ V si ha


v+0=v ;

(P4) Esistenza dell’elemento opposto o inverso relativamente a +: ∀v ∈ V esiste w ∈ V tale


che v + w = 0 useremo la notazione w = −v ;

(P5) Proprietà distributiva di · rispetto a +: ∀α ∈ K, ∀v, w ∈ V si ha

α · (v + w) = α · v + α · w ;

(P6) Proprietà distributiva di · rispetto a + in K: ∀α, β ∈ K, ∀v ∈ V si ha

(α + β) · v = α · v + β · v ;

(P7) Proprietà associativa di · : ∀α, β ∈ K, ∀v ∈ V si ha (αβ) · v = α · (β · v);

(P8) Proprietà di 1: ∀v ∈ V si ha 1 · v = v.

Sia V è un K-spazio vettoriale. Gli elementi v ∈ V sono chiamati vettori ∗ e gli elementi
α ∈ K sono chiamati scalari.

Proposizione 1.4 Sia V un K-spazio vettoriale. Allora:

i) 0 · v = 0 ∀v ∈ V ;

ii) α · 0 = 0 ∀α ∈ K,;

iii) dati α ∈ K e v ∈ V allora α · v = 0 se e solo se α = 0 oppure v = 0 ;

iv) dati v, w, w0 ∈ V allora v + w = v + w0 se e solo se w = w0 . In particolare l’opposto di un


vettore è unico.

v) −(α · v) = (−α) · v = α · (−v) ∀α ∈ K, ∀v ∈ V . In particolare −v = (−1) · v.

Dim. Con le stesse ipotesi di cui sopra:

i) Si ha: 0 · v = (0 + 0) · v = 0 · v + 0 · v. Sommando a destra e sinistra (−0 · v) si ha:

0 = 0 · v + (−0 · v) = (0 · v + 0 · v) + (−0 · v) = 0 · v + (0 · v − 0 · v) = 0 · v + 0 = 0 · v .

ii) Si ha: α · 0 = α · (0 + 0) = α · 0 + α · 0. Sommando a destra e sinistra (−α · 0) si ha:

0 = α · 0 − α · 0 = (α · 0 + α · 0) − α · 0 = α · 0 + (α · 0 − α · 0) = α · 0 + 0 = α · 0 .

Nel testo i vettori saranno indicati in grassetto, gli scalari in carattere normale.

4
1.2 Esempi

iii) Se α = 0 la tesi segue da quanto dimostrato in precedenza. Se α 6= 0 allora:

∃α−1 ∈ K tale che αα−1 = 1 = α−1 α

Quindi α−1 (α · v) = (α−1 α) · v = 1 · v = v = α−1 · 0 = 0.

iv) Sommando a destra e sinistra (−v) si ha:

(v + w) + (−v) = (v + w0 ) + (−v)
(w + v) + (−v) = (w0 + v) + (−v) per (P2)
0
w + (v − v) = w + (v − v) per (P1)
0
w+0=w +0 per (P4)
0
w=w per (P3).

In particolare se w e w0 sono due opposti di v, per definzione di opposto v+w = 0 = v+w0 .


Quindi, per iv), w = w0 , cioè l’opposto è unico.

v) Basta dimostrare che (−α) · v e α · (−v) sono l’inverso di α · v. Infatti:

α · v + (−α) · v = (α + (−α)) · v = 0 · v = 0
α · v + α · (−v) = α · (v + (−v)) = α · 0 = 0

Per la (iv) si ha che (−α) · v = α · (−v).

In particolare nel caso α = 1, si ha (−1) · v = −v. 

1.2 Esempi
1.2.1 Lo spazio banale
Chiamiamo spazio banale l’insieme {0} con le operazioni:

• Somma + :

{0} × {0} → V
(0 , 0) 7 → 0

– Elemento neutro: 0;
def
– Inverso: −0 ≡ 0;

• Prodotto per scalare · :

K × {0} → {0}
(α , 0) 7 → 0

Concludiamo che {0} è spazio vettoriale.

5
1. Spazi vettoriali

1.2.2 Lo spazio Kn
Definiamo Kn come l’insieme delle n-ple di elementi di K ovvero
def
Kn ≡ {(a1 , . . . , an ) tali che a1 , . . . , an ∈ K} .

Introduciamo le due operazioni di somma e prodotto per scalare con le rispettive proprietà:

• Somma + :

Kn × Kn → Kn
((a1 , . . . , an ) , (b1 , . . . , bn )) 7 → ((a1 + b1 ), . . . , (an + bn ))
def
– Elemento neutro in Kn : 0 ≡ (0, . . . , 0);
– Inverso in Kn : −(a1 , . . . , an ) = (−a1 , . . . , −an );

• Prodotto per scalare · :

K × Kn → Kn
((α , (a1 , . . . , an )) 7 → ((αa1 ), . . . , (αan ))

Si verifica che Kn , con le operazioni sopra definite, è un K−spazio vettoriale. In particolare,


Rn è un R-spazio vettoriale e Cn è un C-spazio vettoriale. Osserviamo che R1 = R e C1 = C.

1.2.3 C-spazio vettoriale come R-spazio vettoriale


Sia V un C-spazio vettoriale. Definiamo su V la seguente struttura di R-spazio vettoriale.
Poniamo la somma, il vettore nullo e l’opposto uguali a quelli definiti sul C-spazio vettoriale V .
Infine poniamo il prodotto per scalare ·

R × V → V
(α , v) 7 → α·v

ove identifichiamo α ∈ R con la sua immagine in C ed utilizziamo il prodotto per scalare


·: C × V → V .
In particolare, il C-spazio vettoriale C = C1 ammette una struttura di R-spazio vettoriale
con
• Somma + : somma usuale di numeri complessi;

• Prodotto per scalare · :

R × C → C
(α , (a + ib)) 7→ α(a + ib)
def
• Elemento neutro di + : C 3 0 ≡ (0 + i0);

• Inverso di + : −(a + ib) = (−a − ib).


Notiamo quindi che è importante precisare il campo sul quale lavoriamo.

6
1.2.4 Lo spazio dei polinomi a coefficienti in K

1.2.4 Lo spazio dei polinomi a coefficienti in K


Definiamo K[x] come l’insieme dei polinomi a coefficienti in K nell’indeterminata x. Dunque
def P∞
i

K[x] ≡ i=0 ai x |ai ∈ K, ai = 0 per i  0 . Introduciamo le due operazioni di somma e prodot-
to per scalare con le rispettive proprietà:

• Somma + :

K[x] × K[x] → K[x]


( ∞
P i ,
P∞ j
P∞ i
a
i=0 i x j=0 bj x ) 7→ i=0 i + bi )x
(a

def P
– Elemento neutro in K[x] : 0 ≡ ∞ i
i=0 0x ;
– Inverso in K[x] : − ∞
P i
P∞ i
i=0 ai x = i=0 (−ai )x ;

• Prodotto per scalare · :

K × K[x] → K[x]
P∞ i
P∞ i
(α , i=0 ai x ) 7→ i=0 (αai )x

P∞ i
P∞ i
– Risulta evidente che 1 · i=0 ai x = i=0 ai x .

Si verifica che K[x], con le operazioni sopra definite, è un K-spazio vettoriale.

1.2.5 Lo spazio di funzioni


Sia S un insieme e sia W un K−spazio vettoriale. Sia V = F(S, W ) l’insieme delle funzioni da
def
S in W , ovvero V ≡ {f : S → W }. Introduciamo le usuali operazioni:

• Somma + :

V × V → V
(f , g) 7→ (f + g : S → W )
x 7→ f (x) + g(x)

– Elemento neutro in V dato da 0 : S → W , x 7→ 0W ;


– Inverso in V dato da −f : S → W , x 7→ −f (x);

• Prodotto per scalare · :

K × V → V
((α , f ) 7 → ((α · f ) : S → W )
x 7→ αf (x)

Si verifica che V , con le operazioni sopra definite, è un K-spazio vettoriale.

7
1. Spazi vettoriali

1.2.6 Prodotto di spazi vettoriali



Siano
V e W K−spazi vettoriali. Sia V × W l’insieme delle coppie ordinate (v, w)|v ∈ V, w ∈
W . Definiamo

• Somma + :

V × W × V × W → V ×W
(v, w) , (v 0 , w0 ) (v + v 0 ), (w + w0 )

7→

• Elemento neutro in V × W dato da 0V , 0W ;
 
• Inverso in V × W dato da − v, w = −v, −w ;

• Prodotto per scalare · :

K × V ×W → V ×W 
(α , (v, w)) 7→ α · v, α · w

Si verifica che V ×W , con le operazioni sopra definite, è un K-spazio vettoriale. Più in generale se
Wi , con i ∈ I, è una famiglia di K-spazi vettoriali, si definisce il prodotto ×i∈I Wi come l’insieme
prodotto dotato delle operazioni somma, inverso e prodotto per scalare definite componente per
componente ed elemento neutro (0).

1.3 Spazi di matrici


Sia K un campo. Siano dati h ed n ∈ N con h ed n ≥ 1. Definiamo matrice h × n a coefficienti
in K una tabella della forma
 
a11 . . . a1n
 .. .. ..  = a 
A= . . .  ij 1≤i≤h
1≤j≤n
ah1 . . . ahn
con aij ∈ K per ogni 1 ≤ i ≤ h ed ogni 1 ≤ j ≤ n. Denotiamo Mh×n (K) l’insieme delle matrici
h × n a coefficienti in K. Introduciamo le due operazioni:

• Somma + :

Mh×n (K) × Mh×n (K) → Mh×n (K)


     
a11 . . . a1n b11 . . . b1n (a11 + b11 ) . . . (a1n + b1n )
 .. .. ..  ,  .. .. ..  .. .. ..
7→
 
 . . .   . . .   . . . 
ah1 . . . ahn bh1 . . . bhn (ah1 + bh1 ) . . . (ahn + bhn )

def 
– Elemento neutro in Mh×n (K): 0 ≡ 0 ... 0 ;
0 ... 0

8
1.4 Sottospazi vettoriali

   
a11 . . . a1n −a11 . . . −a1n
 .. .. ..  def  .. .. ..  ;
– Inverso additivo in Mh×n (K): −  . . . ≡ . . . 
ah1 . . . ahn −ah1 . . . −ahn

• Prodotto per scalare · :

K × Mh×n (K) → Mh×n (K)


   
a11 . . . a1n α a11 . . . αa1n
 .. .. ..   .. .. .. 
α ,  . . .  7→  . . . 
ah1 . . . ahn αah1 ... αahn

Si verifica che Mh×n (K), con le operazioni appena definite, è un K-spazio vettoriale.

Osservazione 1.5 Da questo punto in poi omettiamo il simbolo · per indicare il prodotto per
scalare.

1.4 Sottospazi vettoriali


Definizione 1.6 Sia V un K−spazio vettoriale. Si definisce sottospazio vettoriale di V un
sottoinsieme W ⊆ V che soddisfa le seguenti proprietà:

• ∀w1 , w2 ∈ W si ha w1 + w2 ∈ W (chiusura rispetto a +);

• ∀w ∈ W, ∀α ∈ K si ha αw ∈ W (chiusura rispetto a ·);

• W 6= ∅.

Proposizione 1.7 Sia W ⊆ V un sottospazio vettoriale di un K−spazio vettoriale V . Allora:

i) 0 ∈ W ;

ii) per ogni w ∈ W si ha −w ∈ W ;

iii) W con

(a) la somma definita dalla somma in V ;


(b) elemento neutro 0;
(c) l’opposto definito prendendo l’opposto in V ;
(d) il prodotto per scalare definito dal prodotto per scalare su V ;

è un K-spazio vettoriale.

Dim.

i) Poichè W 6= ∅ esiste un elemento w ∈ W . Allora, 0 · w = 0 grazie alla Proposizione 1.4.


Ma 0 · w ∈ W per l’assioma (ii) di sottospazio vettoriale. Quindi 0 ∈ W .

9
1. Spazi vettoriali

ii) Sia w ∈ W . Allora, (−1) · w = −w grazie alla Proposizione 1.4. Inoltre (−1) · w ∈ W per
l’assioma (ii) di sottospazio vettoriale. Quindi −w ∈ W .

iii) Per definizione di sottospazio vettoriale la somma e il prodotto per scalare sono ben definiti,
cioè dati v e w ∈ W e dato α ∈ K allora i vettori v + w e α · v di V sono in W . Grazie ad
(i) 0 ∈ W e grazie a (ii) l’inverso è ben definito su W . Per concludere basta allora verificare
che gli assiomi P1–P8 di spazio vettoriale siano soddisfatti. Questo segue dal fatto che lo
sono per V .


1.5 Esempi di sottospazi


1.5.1 Sottospazio banale
Se V è un K−spazio vettoriale, è immediato verificare che W = {0} ⊆ V è sottospazio vettoriale.

1.5.2 Sottospazio di polinomi


Sia V = K[x] il K−spazio vettoriale dei polinomi a coefficienti in K come definito in §1.2.4. Sia
d un intero non negativo. Sia
def 
W ≡ K[x]≤d = P ∈ K[x] : deg(P ) ≤ d .

Allora W è chiuso rispetto a +, è chiuso rispetto a · e contiene il polinomio 0. Concludiamo che


W è sottospazio vettoriale di K[x]. Lasciamo al lettore la verifica che

K[x]≥d = P ∈ K[x] : deg(P ) ≥ d

non è sottospazio di K[x] se d ≥ 1.

1.5.3 Sottospazio delle funzioni di classe C n


Sia I ⊆ R un intervallo aperto. Chiamiamo F(I, R) lo spazio delle funzioni f : I → R come
definito in §1.2.5. Sia C n (I, R) l’insieme delle funzioni derivabili n-volte, con derivata n-esima
continua. Si può facilmente verificare che C n (I, R) è sottospazio vettoriale di F(I, R) per ogni n.
Analogamente C ∞ (I, R) = ∩n C n (I, R) è sottospazio vettoriale di F(I, R).

1.5.4 Intersezione di sottospazi


Lemma 1.8 Sia V un K−spazio vettoriale e siano W e Z sottospazi vettoriali di V . Allora
W ∩ Z è il più grande sottospazio vettoriale di V contenuto sia in W che in Z. Più in generale

10
1.5.5 Somma e somma diretta di sottospazi

data una famiglia di sottospazi vettoriali Wi di V , con i ∈ I, allora l’intersezione ∩i∈I Wi è il


più grande sottospazio vettoriale di V contenuto in Wi per ogni i ∈ I.

Dim. Daremo la dimostrazione nel caso di due sottospazi lasciando il caso generale al lettore.
Dimostriamo innanzitutto che W ∩ Z è un sottospazio vettoriale. Prendiamo a e b ∈ W ∩ Z.
Segue che a e b ∈ W e a e b ∈ Z, da cui abbiamo che

a+b∈W e a + b ∈ Z.

Deduciamo quindi che a + b ∈ W ∩ Z, ovvero W ∩ Z è chiuso rispetto alla somma.


Prendiamo ora α ∈ K e v ∈ W ∩ Z. Segue naturalmente che αv ∈ W e αv ∈ Z, da cui
risulta αv ∈ W ∩ Z, ovvero W ∩ Z è chiuso rispetto al prodotto per scalare. Poichè 0 ∈ W e
0 ∈ Z grazie a 1.7 deduciamo che 0 ∈ W ∩ Z e quindi W ∩ Z 6= ∅. Concludiamo quindi che
W ∩ Z è sottospazio vettoriale di V .
Sia ora T ⊂ V un sottospazio vettoriale contenuto sia in W che in Z. Allora T ⊆ W ∩ Z.
Quindi W ∩ Z è il più grande sottospazio vettoriale di V contenuto sia in W che in Z. 

1.5.5 Somma e somma diretta di sottospazi


Sia V un K−spazio vettoriale e W e Z due sottospazi. In generale, non è vero che W ∪ Z sia
un sottospazio vettoriale di V . Ad esempio, se V = R2 , W è il sottospazio generato da (1, 0) e
Z è il sottospazio generato da (0, 1) allora (1, 1) = (1, 0) + (0, 1) non è un elemento di W ∪ Z.
Ovviamo a tale problema dando la seguente definizione

Definizione 1.9 Definiamo W + Z come l’insieme dei vettori v ∈ V tali che esiste w ∈ W ed
esiste z ∈ Z per cui v = w + z ovvero

W + Z := {v ∈ V | ∃w ∈ W, ∃z ∈ Z t.c. v = w + z}.

Più generalmente se W1 , . . ., Wn sono sottospazi vettoriali di V , definiamo ni=1 Wi come


P

il sottoinsieme composto dai vettori v ∈ V tali che esistono vettori w1 ∈ W1 , · · · , wn ∈ Wn per


cui v = w1 + · · · + wn .

Lemma 1.10 Il sottoinsieme W + Z è il più piccolo sottospazio di V contenente sia W che Z


ed è chiamato la somma di W e Z. In generale, se W1 , . . ., Wn sono sottospazi vettoriali di V
allora ni=1 Wi è il più piccolo sottospazio di V contenente W1 , . . . , Wn ed è chiamato la somma
P

di W1 , . . . , Wn .

Dim. Ogni vettore w ∈ W si scrive come w + 0 e 0 ∈ Z in quanto Z è sottospazio vettoriale.


Abbiamo quindi che w ∈ W + Z. Concludiamo che W ⊆ W + Z e, similmente, Z ⊆ W + Z. In
particolare, W + Z è non vuoto.
Dati i vettori v1 e v2 ∈ W + Z esistono w1 , w2 ∈ W e z1 , z2 ∈ Z tali che v1 = w1 + z1 e
v2 = w2 + z2 . Quindi v1 + v2 = (w1 + w2 ) + (z1 + z2 ). Poichè w1 + w2 ∈ W e z1 + z2 ∈ Z
concludiamo che v1 + v2 ∈ W + Z. Se α ∈ K, allora αv1 = αw1 + αz1 . Poichè αw1 ∈ W e
αz1 ∈ Z concludiamo che αv1 ∈ W + Z. Abbiamo quindi mostrato che W + Z è un sottospazio
vettoriale.

11
1. Spazi vettoriali

Sia T ⊆ V un sottospazio vettoriale contenente W e Z. Dato v ∈ W + Z esistono w ∈ W e


z ∈ Z tali che v = w + z. Ma w e z ∈ T e quindi la loro somma v ∈ T . Segue che W + Z ⊆ T .
Il caso della somma di tre o più sottospazi vettoriali è lasciato al lettore.


Definizione 1.11 Dati W e Z sottospazi di V , diciamo che la somma è diretta se W ∩Z = {0}.


in tal caso scriveremo W ⊕ Z invece di W + Z.
Più generalmente se W1 , . . ., Wn sono sottospazi vettoriali di V , diciamo che i Wi sono
Pn 
in somma diretta se per ogni i i sottospazi vettoriali Wi ∩ j=1,6=i Wj = {0}. In tal caso
scriveremo ⊕ni=1 Wi invece di ni=1 Wi .
P

Proposizione 1.12 Sia V un K−spazio vettoriale e siano W , Z sottospazi vettoriali di V .


Allora W e Z sono in somma diretta se e solo se per ogni v ∈ W + Z esiste un unico w ∈ W
ed esiste un unico z ∈ Z tali che v = w + z.
Più generalmente siano W1 , . . ., Wn sottospazi vettoriali di V . Allora i Wi sono in somma
Pn
diretta se e solo se per ogni v ∈ i=1 Wi e per ogni i esiste un unico wi ∈ Wi tale che
Pn
v = i=1 wi .
Dim. Dimostriamo l’implicazione diretta. Prendiamo v ∈ W + Z e supponiamo che esistano
due scritture:
v =w+z
v = w0 + z 0
con w, w0 ∈ W e z, z 0 ∈ Z. Allora w + z = w0 + z 0 , da cui
W 3 w − w0 = z 0 − z ∈ Z.
Quindi w − w0 ∈ W ∩ Z e z − z 0 ∈ W ∩ Z. Poichè W ∩ Z = {0} concludiamo che w = w0 e
z = z 0 , ovvero la scrittura è unica.
Dimostriamo l’implicazione inversa. Sia v ∈ W ∩ Z. Allora possiamo scrivere
0 = 0W + 0Z = v + (−v)
Ovvero ho due scritture di 0, da cui v = 0. Quindi W ∩ Z = {0}.

Passiamo al caso generale. Dimostriamo l’implicazione diretta. Chiamiamo I = {1, . . . , n}.


P
Sia v ∈ i∈I Wi e supponiamo che esistano due scritture
X X
vi = v = wi
i∈I i∈I
con vi e wi ∈ Wi per ciascun i. Allora, per ogni i ∈ I, vale
X  X
Wi 3 vi − wi = wj − vj ∈ Wj
j6=i j6=i

Quindi, vi − wi = 0 ovvero vi = wi . Questo dimostra che la scrittura è unica.


P P
Dimostriamo l’implicazione inversa. Sia v ∈ Wi ∩ j6=i Wj . Allora v = j6=i wj con
wj ∈ Wj . Quindi X X
0Wi = 0 = v + −wj
i∈I j6=i
P
Ovvero ho due scritture di 0. Segue che v = 0. Quindi Wi ∩ j6=i Wj = {0}. 

12

Potrebbero piacerti anche