Sei sulla pagina 1di 7

Appunti su spazi vettoriali n.1 Denizione. Diciamo che n vettori v1 , . . .

, vn V sono linearmente dipendenti (o formano un sistema di vettori linearmente dipendenti) se esistono 1 , . . . n K, non tutti nulli tali che 1 v1 + 2 v2 + n vn = 0 I vettori si diranno linearmente indipendenti se ci non accade, cio se o e 1 v1 + 2 v2 + + n vn = 0 = 1 = 2 = . . . n = 0 Osservazione. Se n = 1, v ` linearmente indipendente se e solo se v = 0. e Proposizione 1.1. Dati v1 , . . . , vn V questi sono linearmente dipendenti se almeno uno di essi combinazione lineare dei rimanenti. In particolare due vettori sono linearmente e dipendenti se e solo se uno dei due ` multiplo dellaltro. e Dim. Supponiamo che v1 , . . . , vn siano linearmente dipendenti, allora 1 v1 + 2 v2 + + n vn = 0 e qualcuno dei j non nullo. Supponiamo che sia n = 0, ma allora esiste e 1 1 e moltiplicando lultima equazione ambo i membri per n otteniamo n 1 1 v1 + 1 2 v2 + + vn = 0 n n
1 e cio vn = n 1 v1 1 2 v2 1 n1 vn1 . Se anzich` n = 0 un altro coeciente e n n ` non nullo la dimostrazione procede in maniera analoga. e Viceversa, se un vettore, diciamo vn combinazione lineare dei rimanenti n 1 vettori allora 1 v1 + 2 v2 + + n1 vn1 vn = 0 e lultimo coeciente non nullo quindi i e vettori sono linearmente dipendenti.///

Osserviamo che se i vettori sono linearmente dipendenti non e detto che ogni vettore sia combinazione lineare degli altri. Tuttavia, vale la seguente Proposizione 1.2. Se v1 , . . . , vn1 V sono linearmente indipendenti e se v1 , . . . , vn sono linearmente dipendenti allora vn ` combinazione lineare di v1 , . . . , vn1 . e Dim. La dimostrazione di questo fatto ` essenzialmente contenuta nella prima parte della e dimostrazione della proposizione 1.2 di cui sopra. Infatti se gli n vettori sono dipendenti allora 1 v1 + 2 v2 + + n1 + vn1 n vn = 0 e i coeciente j non sono tutti nulli. e Ma allora n = 0, poich` in caso contrario si avrebbe 1 v1 + 2 v2 + + n1 vn1 = 0 e quindi per lindipendenza dei primi n 1 vettori, tutti i coecienti sarebbero nulli. Ma se n = 0 allora moltiplicando ambo i membri per 1 otteniamo che vn ` combinazione e n lineare dei primi n 1 vettori./// Proposizione 1.3. Se v1 , . . . , vn V sono linearmente indipendenti, allora
n n

j vj =
j=1 j=1

j vj = j = j , j = 1, 2, ....n 1

Cio` ogni combinazione lineare degli n vettori ammette ununica scrittura. e Dim. Sottraendo membro a membro si ottiene j=1 (j j )vj = 0 e siccome i vettori sono indipendenti si ottiene j j = 0 per ogni j./// Osservazione. Se T = {v1 , . . . , vn } ` un sistema di vettori linearmente indipendenti, ale lora ogni S T ` un sistema di vettori linearmente indipendenti. Ovviamente la propriet` e a non vale se indipendenti ` sostituito da dipendenti (ad es. T = {v, 2v} con v = 0, e e S = {v}). Denizione. Un insieme di vettori S = {v1 , v2 , . . . , vn } V formano una base di V se e 1. S ` un sistema di generatori di V , cioe V = < S > e 2. S ` un sistema di vettori linearmente indipendenti. Proposizione 1.4. Se V ammette una base di n vettori, allora n + 1 vettori arbitrariamente scelti sono linearmente dipendenti. Dim. Scriviamo la dimostrazione nel caso n = 2. Supponiamo che v1 , v2 siano una base per V , e prendiamo w1 , w2 , w3 V . Dimostriamo che esistono 1 , 2 3 K non tutti nulli tali che 1 w1 + 2 w2 + 3 w3 = 0. Si ha che w1 = 11 v1 +12 v2 , w2 = 21 v1 +22 v2 , w3 = 31 v1 +32 v2 , , per qualche scelta dei coecienti jk K (poiche v1 , v2 sono un sistema di generatori). Allora 1 w1 + 2 w2 + 3 w3 = 1 (11 v1 + 12 v2 ) + 2 (21 v1 + 22 v2 ) + 3 (31 v1 + 32 v2 ) = = (1 11 + 2 21 + 3 31 )v1 + (1 12 + 2 22 + 3 32 )v2 cosicch`, per lindipendenza di v1 , v2 si ha che 1 w1 + 2 w2 + 3 w3 = 0 se e solo se e 1 11 + 2 21 + 3 31 = 0 1 12 + 2 22 + 3 32 = 0. Poich` w1 , w2 , w3 sono dati, cos` pure lo sono i jk . Il sistema di sopra ammette e i e innite soluzioni 1 , 2 , 3 , poich` ha rango 2 < 3. La dimostrazione si estende in maniera analoga nel caso di n generico./// e Proposizione 1.5. Se V ` uno spazio nitamente generato e X un sistema di generatori nito di V , allora X contiene una base di V . Dim. Scriviamo la dimostrazione prima nel caso X = {v1 , v2 , v3 }, cio` V =< v1 , v2 , v3 >. e Sia n il massimo numero di vettori linearmente indipendenti scelti tra v1 , v2 , v3 . Se n = 3 abbiamo nito. Se n = 2 allora due dei vettori, diciamo v1 , v2 , sono linearmente indipendenti e i vettori v1 , v2 , v3 sono dipendenti. Per le prop. 1.2 si ha v3 = v1 + v2 . Basta ora mostrare che v1 , v2 generano V . Siccome per ipotesi ogni x V si puo scrivere come x = 1 v1 + 2 v2 + 3 v3 allora x = 1 v1 + 2 v2 + 3 (v1 + v2 ) = (1 + 3 )v1 + (2 + 3 )v2 2
n

cio` ogni x V ` combinazione lineare di v1 e v2 . e e o e Se n = 1 ci` signica che esiste un vettore indipendente, cio` non nullo, e che gli altri due sono suoi multipli. Supponiamo ad esempio che v1 = 0, v2 = v1 , v3 = v1 . Allora si ha che ogni x V si pu` scrivere come x = 1 v1 + 2 v2 + 3 v3 = (1 + 2 + 3 )v1 , o e cio` che V =< v1 >, e quindi {v1 } ` una base. e e Per il caso generale si procede in maniera analoga: se X = {v1 , ...vm } genera V , e se e i vettori sono linearmente indipendenti, allora X stesso ` una base di V . Altrimenti sia n < m il massimo numero di vettori indipendenti di X. Supponiamo che siano i primi a n (questo non lede la generalit`, visto che li possiamo sempre rinominare). Siccome per ogni k = n + 1, n + 2, ....m i vettori v1 , ....vn , vk devono essere dipendenti (altrimenti se ne avrebbero pi` di n in X, mentre n ` il massimo numero) e quindi per la proposizione u e 1.2 esistono coecienti 1k , ....nk tali che
n

vk =
j=1

jk vj ,

k = n + 1, n + 2, ...m.

o Siccome i v1 , ...vm generano V , ogni x V si pu` scrivere come


m n m

x=
j=1 n m

j vj =
j=1 n

j vj +
k=n+1 n

k vk =
m

=
j=1

j vj +
k=n+1

k
j=1

jk vj

=
j=1

j +
k=n+1

k jk vj

e cio` ogni x V ` combinazione lineare dei v1 , ...vn , che sono quindi una base di V ./// e e
n m m n

Nella dimostrazione di sopra abbiamo usato il fatto che


j=1 k=1

ajk

=
k=1 j=1

ajk

quali che siano i coecienti ajk ; questa ` la semplice associativit` e commutativit` della e a a somma. e Corollario 1.6. Uno spazio vettoriale V ` nitamente generato se e solo se ammette una base. Dim. Infatti se V ` nitamente generato da X nito allora X contiene una base per la e prop. 1.5. Viceversa, se V ammette una base allora ` ovviamente nitamente generato./// e

Teorema della base (1.7). Supponiamo che V abbia una base {v1 , . . . , vn }. Dati s vettori w1 , . . . , ws V si ha 1. se s > n allora {w1 , . . . , ws } non sono linearmente indipendenti (e quindi non formano una base); 2. se s = n allora {w1 , . . . , wn } sono un sistema di generatori se e solo se sono linearmente indipendenti (e quindi sono una base se e solo se sono un sistema di generatori oppure sono linearmente indipendenti); 3. se s < n allora {w1 , . . . , ws } non sono un sistema di generatori (e quindi non sono una base); 4. (Completamento della base) se s < n e se {w1 , . . . , ws } sono linearmente indipen denti allora esistono n s vettori scelti tra {v1 , ...vn }, diciamo v1 , ...vns , tali che gli n vettori {w1 , ..., ws , v1 , ...vns } formano un a base di V .

Dim. Il punto 1 segue dalla proposizione 1.4. Per dimostrare il punto 2, supponiamo che i vettori w1 , ...wn siano indipendenti e che non generino V . Allora esiste almeno un vettore v1 {v1 , ...vn } che non ` combinazione lineare dei w1 , ...., wn , poich` in caso contrario e e se ogni vj fosse combinazione lineare dei w1 , ..., wn , allora i w stessi genererebbero V !). e Per la proposizione 1.2 si ha che w1 , ...wn , v1 non possono essere dipendenti, e questo ` assurdo per la proposizione 1.4. Viceversa, supponiamo che i vettori w1 , ...wn siano un sistema di generatori. Allora devono essere indipendenti, altrimenti se non lo fossero si avrebbe una base di meno di n vettori, diciamo m < n, scelti tra i wj (per la prop. 1.5) e quindi si avrebbero n > m vettori (i vj ) linearmente indipendenti (assurdo per la proposizione 1.4 con m al posto di n...) Per il punto 3, se s < n allora i w1 , ...ws allora non possono generare V , in quanto, ragionando come nel punto precedente, se fossero un sistema di generatori, allora conterrebbero una base di m s < n vettori, e si avrebbero n > m vettori (i vj ) linearmente indipendenti. Per il punto 4, se s < n allora i w1 , ...ws , non generano V per il punto 3, e ragionando come nel punto 2, esiste un v1 {v1 , ...vn } tale che w1 , ...ws , v1 sono indipendenti. Se s + 1 = n allora abbiamo nito, altrimenti procediamo allo stesso modo: w1 , ...ws , v1 non generano V e si trova v2 {v1 , ...vn } tale che w1 , ...ws , v1 , v2 sono indipendenti, etc. sino a che si raggiungono n vettori indpendenti (il processo si deve fermare poich` non possono e esserci pi` di n vettori indipendenti./// u Corollario 1.8. Se V ` nitamente generato e possiede una base con n vettori, allora e ogni altra base ` formata da n vettori. e Denizione. Se V uno spazio vettoriale nitamente generato, chiamiamo dimensione e di V il numero di vettori di una sua qualunque base. Diremo che lo spazio ha dimensione innita se non ` nitamente generato. e

Denizione. Se V ha dimensione n su un campo K, chiamiamo coordinate di x V rispetto a una base {v1 , ..., vn } gli unici valori x1 , x2 , ...xn K tali che x = x1 v1 + x2 v2 + ... + xn vn . 4

Osservazione. Se V ha dimensione n e {v1 , ..., vn } ` una base di V , allora esiste una e n corrispondenza biunivoca tra K e V che preserva le operazioni di somma e prodotto per scalare. Precisamente tale applicazione : K n V ` data da e
n

(x1 , ..., xn ) =
j=1

xj vj

che chiaramente ` biunivoca, e soddisfa (x1 , ..., xn ) + (y1 , ..., yn ) = (x1 , ..., xn ) + e e (y1 , ..., yn ) , e (x1 , ..., xn ) = (x1 , ..., xn ) . Cio` se x = (x1 , ..., xn ) e y = (y1 , ..., yn ) allora la somma e il prodotto per scalare in K n corrispondono alla alla somma e prodotto per scalare in V nel senso che x + y = (x1 + y1 , ..., xn + yn ), e x = (x1 , ..., xn ). Questo signica che uno spazio vettoriale nitamente generato di dimensione n su un campo K si pu` vedere come K n osservando solo le sue n coordinate o rispetto a una data base. Formula di Grassmann Ricordiamo che dato V spazio vettoriale e U, W V sottospazi, si ha che U + W = {v V : v = u + w, u U, w W } u ` un sottospazio vettoriale di V (il pi` piccolo contenente sia U che W ), e cos` pure U W e i ` un sottospazio di V . e Proposizione 1.9. Se U =< u1 , ..., um > e W =< w1 , ..., w >, allora U + W =< u1 , ..., um , w1 , ...w > . Dim. La dimostrazione segue subito dal fatto che se ogni u U si scrive come u = m k=1 wk allora ogni elemento u + w di U = W si scrive j=1 uj e ogni w W come w = come combinazione lineare dei vettori u1 , ..., um , w1 , ...w .///

Teorema (Formula di Grassmann) 1.10. Se U, W sono due sottospazi di V nitamente generati, allora dim(U + W ) = dim(U ) + dim(W ) dim(U W ) Dim. (Non fatta in classe e quindi non richiesta) Sia {v1 , ...vn } una base per U W . Per la propriet` di completamento delle basi possiamo trovare vettori u1 , ...ur in una base a di U tali che {v1 , ...vn , u1 , ...ur } siano una base di U , e vettori w1 , ...ws in una base di W tali che {v1 , ...vn , w1 , ...ww } siano una base di W . Basta mostrare che i vettori v1 , ...vn , u1 , ...ur , w1 , ...ws sono linearmente indipendenti, in quanto come generatori di U +W (Prop. 1.9), ne sarebbero una base e quindi dim(U +W ) = n+r +s = 2n+r +sn. Supponiamo quindi che 1 v1 + ... + n vn + 1 u1 + ... + r ur + 1 w1 + ... + s ws = 0 che implica 1 v1 + ... + n vn + 1 u1 + ... + r ur = 1 w1 ... s ws e quindi il membro di destra ` un elemento di U W . Allora esistono 1 , ..., n K tali e che 1 w1 ... s ws = 1 v1 + ... + n vn cio` e 1 v1 + ... + n vn + 1 w1 + ... + s ws = 0 e siccome {v1 , ...vn , w1 , ...ww } sono una base di W si ha che 1 = ... = n = 1 = ... = s = 0. Ne consegue che 1 v1 + ... + n vn + 1 u1 + ... + r ur = 0 e siccome {v1 , ...vn , u1 , ...ur } sono una base di U si ha che 1 = ... = n = 1 = ... = r = 0./// Denizione. Se V ` uno spazio vettoriale di dimensione nita, e U, W due suoi sottospazi, e diremo che V ` somma diretta di U e W e scriveremo V = U W , se e 1. V = U + W 2. V W = {0}. Equivalentemente, diremo che U + W ` una somma diretta se U W = {0}. e Ne segue che V = U W = dim V = dim U + dim W. Proposizione 1.11. V = U W se e solo se ogni v V ammette una e una sola scrittura della forma v = u + w, con u U e w W . Dim. Supponiamo che V = U W , quindi ogni v V ammette almeno una scrittura v = u + w, con u U e w W . Se v = u + w , allora u u = w w e quindi 6

e w w U W (poich` U e W sono sottospazi vettoriali e quindi chiusi rispetto alle loro operazioni), e siccome per ipotesi U W = {0} si ha che u = u e w = w . Viceversa, se ogni v V ammette una e una sola scrittura della forma v = u + w, con u U e w W , allora sicuramente V = U + W . Inoltre, se x U W , allora x U a anche x W . Siccome x + (x) = 0 e siccome unaltra scrittura di 0 ` 0 = 0 + 0 e (notiamo che 0 sta in ogni sottospazio), si ha per lunicit` che x = 0./// a Proposizione 1.12. Siano U e W due sottospazi di V , e siano {u1 , ..., ur } una base di U , e {w1 , ..., ws } una base di W . Allora V = U W se e solo se {u1 , ..., ur , w1 , ..., ws } formano una base di V . (Il che equivale a dire che U +V = U W se e solo se {u1 , ..., ur , w1 , ..., ws } sono linearmente indipendenti (e quindi una base per U + V , essendone gi` un sistema di a generatori). Dim. Se V = U W allora v = U + W , e sicuramente i {u1 , ..., ur , w1 , ..., ws } generano V (prop. 1.9). Dimostriamo che sono linearmente indipendenti. Se 1 u1 + 2 u2 + ... + r ur + 1 w1 + ... + s ws = 0 siccome 1 u1 + 2 u2 + ... + r ur U e 1 w1 + ... + s ws W , e siccome la scrittura 0 = 0 + 0 (con 0 U e 0 W ) ` unica, necessariamente e 1 u1 + 2 u2 + ... + r ur = 0, 1 w1 + ... + s ws = 0

e per lindipendenza degli uj e wj si ha che 1 = .... = r = 1 = ... = s = 0. Viceversa, se {u1 , ..., ur , w1 , ..., ws } formano una base di V , allora dim V = dim(U + W ) = r + s = dim U + dim W , il che implica, per Grassmann, che dim(U W ) = 0, cio` e U W = {0}.///