Sei sulla pagina 1di 10

SPAZI VETTORIALI

Siano K un campo e V un insieme. Diremo che V e` uno spazio vettoriale sul campo K
se sono definite due operazioni: unoperazione interna su V(+) detta somma,
ed unoperazione esterna(x) detta prodotto, tali che:
1)(V,+) sia un gruppo abeliano,cioe` goda delle proprieta` associativa e commutativa,
abbia l'elemento nuetro e abbia l'inverso.
2)il prodotto esterno soddisfi le seguenti proprieta`:
(hXk)Xv=hX(kXv)
(h+k)Xv=hv+kv
hX(v+w)=hv+hw
1Xv=v
SOTTOSPAZIO VETTORIALE
sia V una uno spazio vettoriale sul campo K,e sia U sottoinsieme di V con Udiverso dal vet nullo.
Diciamo che U e` sottospazio vettoriale se anche lui e` spazio vettoriale su K,cioe` se gode delle stesse
proprieta` di V. restringendo la somma a UXU ed il prodotto a kXU.
Indipendenza e dipendenza lineare
Definizione:Sia V(k) uno spazio vettoriale e A [v1,v2,..,vn ] un sistema di vettori di V. il sistema A si dice
libero, ovvero i vettori di A si dicono linearmente indipendenti, se l'unica
combinazione lineare dei vettori v1,v2,..,vn che da il vettor nullo quella a
coefficienti tutti nulli. Se il sistema non libero diremo che legato, ovvero i suoi
vettori sono linearmente dipendenti.
Sistema di generatori di uno spazio vettoriale
Definizione:Sia V(k) uno spazio vettoriale e sia A un sistema non vuoto di vettori di V, si dice copertura
lineare di A,e si indica L(a), l'insieme di vettori di V(k) che si possono esprimere
come combinazione lineare di un numero finito di vettori di A.
Definizione:Sia V uno spazio vettoriale e sia A V. Il sottospazio vettoriale L(A) si dice spazio generato
da A. Se poi L(A)=V, si dice che A un sistema di generatori di V.
Diremo che V(k) finitamente generato(f.g.) se esiste in esso almeno un sistema di generatori.
Basi e dimensioni
Teorema: ogni sazio vettoriale V(k) f.g. non banale ammette almeno un sistema libero di generatori.
Dimostrazione: sia S=[ v1,v2,..,vn ] un sistema di generatori di V(k) , se S un sistema
libero di generatori allora il teorema dimostrato, se S non libero allora un suo
vettore vi combinazione lineare degli altri e quindi si pu eliminare perch S\{vi}
ancora un sistema di generatori si V.ora se S libero il teorema dimostrato
senn si continua come prima.
Lemma di steinitz: sia V(k) uno spazio vettoriale f.g., sia B=[v1,v2,..,vn ] un suo sistema di generatori e sia
A=[u1,u2,,um] un sistema libero di vettori di V.allora m<=n.
Si dice base di uno spazio vettoriale V(k) f.g. una sequenza libera di generatori di V(k) .
Teorema: tutte le basi di uno spazio vettorile V(k) hanno lo stesso numero di vettori
Dimostrazione: siano B=[v1,v2,..,vn ] e A =[u1,u2,,um] due basi di V(k) .poich B un
sistema di generatori di V e A un sistema libero si ha che m<=n ma invertendo i
ruoli si ottiene che n<=m e quindi m=n.
Teorema: una sequenza B=[v1,v2,..,vn ] base se, e soltanto se, ogni vettore di V(k) si pu esprimere in
modo unico come combinazione lineare dei vettori di B.
Lemma: se A'=[v1,v2,..,vn ] e A''=[u1,u2,,um] sono sequenze di vettori di V(k) tali che A=A' A'' una
sequenza libera e A'A''=,allora L(A') L(A'')={}.
Dimostrazione: se per assurdo in L(A') L(A'') un vettore w si avrebbe w=a1v1+a2v2+..
+anvn ma anche w=b1u1+b2u2+..+bmum sottraendo membro a membro si
otterrebbe una combinazione lineare a coefficienti non tutti nulli che da il vettor
nullo dai vettori della sequenza A che per ipotesi libera cio un assurdo.
Teorema del complemento di una base: sia Vn(k) uno spazio vettoriale di dimensione n e sia A=[v1,v2,
..,vp ] ,ove pn, una sequenza libera di vettori di Vn(k). Allora in qualunque base
di Vn(k) esiste una sequenza B' di vettori tale che AB' base di Vn(k), inoltre
L(A) e L(B') hanno in comune solo il vettor nullo.
Dimostrazione:applicando il lemma di steinitz ad una base B di Vn(k) si possono sostituire p
vettori di B con i vettori di A ottenendo cos un nuovo sistema B'' di generatori di
Vn(k) che, essendo un sistema di n generatori in uno spazio di dimensione n base.
Il sistema B' creato appunto formato dagli n-p vettori di B''\A.il resto e diretta
applicazione del lemma precedente.
Intersezione e somma di sottospazi
Dati due sottospazi U e W di uno spazio vettoriale V(K) la loro intersezione l'insieme:
UW={vV : vU e vW}
Proposizione: se U e W sono sottospazi di uno spazio vettoriale V(K), allora UW un sottospazio
vettoriale di V(K).
Proposizione: siano U e W due sottospazi di uno spazio vettorile V(K), allora:
U W un sottospazioU W oppure W U
Definizione:siano U1,U2,,Ur sottospazi dello spazio vettoriale V(K). Si dice somma dei sottospazi Ui :
S= U1+U2++Ur={u1+u2+.+ur : ui Ui}
S un sottospazio di V(K)
Definizione(somma diretta): dati U1,U2,,Ur sottospazi dello spazio vettoriale V(K). La loro somma si
dice diretta e si scrive S= U1U2Ur ,se ogni vettore zS esprimibile in
modo unico come somma di r vettori uno per ogni Ui.
Proposizione: siano U1,U2,,Ur sottospazi dello spazio vettoriale V(K). La loro somma diretta se e
soltanto se, scegliendo mr vettori ui non nulli e al pi uno in ogni sottospazio Ui, i
vettori u1,u2,,um sono linearmente indipendenti.
Definizione: siano U e W due sottospazi di uno spazio vettoriale V(K). Si dice somma di U e W
U + W ={u+w : uU, wW}
Proposizione: il sottospazio minimo contenente U e W U+W.
Dimostrazione: dobbiamo dimostrare che L(UW)=U + W. Osserviamo che UW U + W e
quindi L(UW) L(U+W) = U + W, inoltre UUW e WUW quindi, U
L(UW) e W L(UW), da cui U + W L(UW).
Proposizione: la somma di due sottospazi U e W di uno spazio vettoriale V(K) diretta se e soltanto se
UW = {}.
Corollario: uno spazio vettoriale V(K) somma diretta dei suoi sottospazi U e W se e soltanto se
UW={} e U + W = V
Proposizione(formula di grassmann): siano U e W due sottospazi di uno spazio vettoriale V(K) f.g..allora
dim(U + W)= dimU + dim W dim(U W)
Definizione:se U un sottospazio vettoriale di Vn(K), si dice complemento diretto di U in V , un
sottospazio vettoriale W di Vn tale che U W=V.
SISTEMI LINEARI
Richiami di calcolo combinatorio
Dato un numero naturale n, si chiama n fattoriale il numero denotato con n! ed ottenuto dal prodotto dei
primi n numeri interi:
n! = n 2 1
Si assume, per convenzione, 0! = 1.
Si chiama permutazione di
n
N
1
una funzione biettiva p :
n
N
n
N .
Linsieme delle permutazioni di
n
N si denota con Sn ed formato da n! elementi.
Ogni permutazione si pu rappresentare con la scrittura:
1

n
N = { } n 1,2, .

,
_

n
p p p p
n

3 2 1
3 2 1
oppure, pi semplicemente, con:
( )
n
p p p , , ,
2 1

dove pi = p(i).
Sia p Sn , si dice che p presenta una inversione nella coppia (h,k)
n
N x
n
N se h<k e p(h)>p(k).
Il numero di coppie di inversione per p si indica con (p). Si chiama segno di p il numero:
sign(p) = (-1)

(p)
La permutazione p detta di classe pari se sign(p) = 1 (

(p) pari), di classe dispari se


sign(p) = -1 (

(p) dispari).
Definizione di determinante
Sia A ) (R M
n
, si chiama determinante della matrice A il numero:
det (A) =
A
=


n
n
S p
p n p p
a a a p sign
, , 2 , 1
2 1
) (

cio la somma di tutti i possibili prodotti di n elementi appartenenti a righe e colonne diverse tra loro.
Propriet dei determinanti
Il determinante di una matrice A ) (R M
n
gode delle seguenti propriet:
d1)
A
=
t
A
;
d2) Se B ottenuta scambiando due righe (o colonne) di A, allora
B
= -
A
;
d3) Se B ottenuta da A sommando ad una riga (o colonna) una combinazione lineare delle restanti righe
(colonne), allora
B
=
A
;
d4) Il determinante di A si annulla se e solo se le righe o le colonne di A sono linearmente dipendenti.
Calcolo del determinante con la regola di Laplace
Sia A ) (R M
n
, si dice complemento algebrico dellelemento ahk , e si indica con Ahk, il determinante
della matrice quadrata di ordine n-1 ottenuta da A sopprimendo la h-esima riga e la k-esima colonna preso
con il segno (-1)
h+k
.
Teorema di Laplace. Il determinante di una matrice quadrata A di ordine n dato dalla somma dei prodotti
degli elementi di una sua riga (o colonna) per i rispettivi complementi algebrici. Cio:
A
= + + +
in in i i i i
A a A a A a
2 2 1 1

n
j 1
ij ij
A a

n i , , 2 , 1
oppure
A
=
+ + +
nj nj j j j j
A a A a A a
2 2 1 1

n
i 1
ij ij
A a
n j , , 2 , 1
Calcolo del determinante con il metodo di eliminazione di Gauss
Il metodo di eliminazione di Gauss una procedura che permette di trasformare una qualunque matrice
quadrata A in una matrice triangolare
A'
, mediante una successione finita di trasformazioni elementari
del tipo :
1
T : scambio di due differenti righe:
j i
a a
(o colonne:
j i
a a
);
2
T : somma di una riga (o colonna) con unaltra moltiplicata per uno scalare:
j i i
a a a +
(
j i i
a a a +
).

Poich le trasformazioni del tipo
1
T cambiano il segno del determinante, mentre le trasformazioni del tipo
2
T non alterano il determinante, le matrici A ed
A'
avranno lo stesso determinante se si operato un
numero pari di scambi di righe o colonne, se invece si operato un numero dispari di scambi allora
A
=
A'
.
Descriviamo ora il metodo di eliminazione di Gauss. Sia
A =

,
_

nn n n
n
n
a a a
a a a
a a a

2 1
2 22 21
1 12 11
Una matrice quadrata di ordine n. Mediante scambi di righe o colonne facciamo in modo che 0
11
a (se A
diversa dalla matrice nulla ci sempre possibile). Dobbiamo ora operare in modo che tutti gli elementi
della prima colonna, eccetto il primo, siano nulli. Pertanto, per ogni
, , , 3 , 2 n j
basta sottrarre alla j-
esima riga della matrice A la prima riga moltiplicata per
11 1
/ a a
j
.
Si ottiene cos una matrice del tipo
A'
=

,
_

nn n
n
n
a a
a a
a a a

2
2 22
1 12 11
0
0
che ha lo stesso determinante della matrice A o, al pi, il suo opposto. Operando in modo analogo sulle
colonna successive, si perviene ad una matrice triangolare il cui determinante differisce da quello di A al pi
per il segno.
Rango di una matrice
La propriet d4 consente di stabilire rapidamente se un sistema di n vettori numerici di ordine n,
,
n
v , , v , v
2 1
linearmente dipendente o indipendente. Basta infatti considerare la matrice A che
ammette i vettori
n
v , , v , v
2 1
come righe o come colonne e calcolare il determinante di A. Se
A

= 0 allora i vettori saranno linearmente dipendenti, diversamente essi saranno linearmente indipendenti.
Sia A
) (
,
R M
n m

, si dice minore di ordine k di A (k m e k n) una matrice quadrata di ordine k


ottenuta da A sopprimendo m-k righe e n-k colonne.
Si definisce rango di una matrice A
) (
,
R M
n m

, e si indica con

(A), lordine massimo di un minore


estratto da A con determinante diverso da zero.
Ovviamente, se la matrice A quadrata di ordine n, allora

(A) = n se e solo se il determinante di A


diverso da zero.
Teorema. Sia A
) (
,
R M
n m

, la dimensione dello spazio generato dalle righe della matrice A coincide con
la dimensione dello spazio generato dalle colonne di A. Inoltre si ha:

(A) = dim L( )
m
a a a , , ,
2 1
= dim L( )
n
a a a , , ,
2 1
.
I minori della matrice aventi determinante non nullo e di ordine massimo (cio pari al rango di A) sono detti
minori fondamentali.
Le righe e le colonne che formano un minore fondamentale costituiscono una base, rispettivamente, di L
( )
m
a a a , , ,
2 1
e di L( )
n
a a a , , ,
2 1
. Cio costituiscono un sistema massimo di righe e di colonne
linearmente indipendenti.
Teorema (degli orlati). Una matrice A
) (
,
R M
n m

ha rango h se e solo se esiste un minore di ordine h


con determinante non nullo tale che tutti i suoi orlati abbiano determinante nullo.
Inversa di una matrice
Una matrice quadrata A ) (R M
n
si dice invertibile se esiste una matrice
1
A

, detta matrice inversa,


tale che
n
1 1
I A A A A

.
Per un calcolo pi rapido della matrice inversa conviene applicare le seguenti propriet:

A invertibile
0 A
e
1
-1
A A

0 A
A invertibile e
t
) A )( A ( A
1
-1

.
Dove A
*
= (Aij)

la matrice i cui elementi sono i complementi algebrici degli elementi di uguale posizione di
A
Sistemi lineari
Un sistema lineare un insieme di m equazioni in n incognite a coefficienti in un campo K.
Un sistema lineare si pu quindi indicare nel modo seguente:
S :

'

+ + +
+ + +
+ + +
m n mn m m
n n
n n
b x a x a x a
b x a x a x a
b x a x a x a

2 2 1 1
2 2 2 22 1 21
1 1 2 12 1 11
. .......... .......... .......... ..........
Con
K ,
i ij
b a
. Gli scalari
ij
a
si chiamano coefficienti delle incognite, mentre gli scalari
i
b si dicono
termini noti.
Ad ogni sistema lineare S si pu associare la matrice dei coefficienti A = (
ij
a
)
) K (
,n m
M
, detta anche
matrice incompleta, e la cosiddetta matrice completa C
) K (
1 , +

n m
M
ottenuta aggiungendo ad A la
colonna dei termini noti.
C =

,
_


m mn m
n
n
b a a
b a a
b a a

1
2 2 21
1 1 11
Si chiama soluzione del sistema S una n-upla ( )
n
, , ,
2 1
di K che verifica tutte le equazioni del
sistema S, ossia:

'

+ + +
+ + +
+ + +
m n mn m m
n n
n n
b a a a
b a a a
b a a a


2 2 1 1
2 2 2 22 1 21
1 1 2 12 1 11
. .......... .......... .......... ..........
o equivalentemente, utilizzando la forma vettoriale,
(*) b a a a
n
n
+ + +
2
2
1
1
.
Linsieme delle soluzioni di S sar indicato con Sol(S). Il sistema S si dice compatibile se Sol(S) , ossia
esiste qualche soluzione, si dice, invece, incompatibile (o impossibile) se privo di soluzioni, cio Sol(S) =
.
Dalla relazione (*) si deduce che se il sistema S compatibile allora la colonna dei termini noti b
combinazione lineare delle colonne della matrice A. Viceversa se b dipende linearmente dalle colonne
della matrice A, allora esiste una n-upla ( )
n
, , ,
2 1
di K tale che b a a a
n
n
+ + +
2
2
1
1
,
ma questo vuol dire che ( )
n
, , ,
2 1
una soluzione, cio che il sistema compatibile. Possiamo
allora concludere dicendo che il sistema S compatibile se e solo se b ) , , , (
2 1 n
a a a L . Inoltre, se il
sistema S compatibile, le sue soluzioni sono tante quanti i modi di esprimere b come combinazione
lineare dei vettori
n
a a a , , ,
2 1
. Questi risultati ci consentono di provare i seguenti:

Teorema di Rouch Capelli. Un sistema lineare AX = B compatibile se e solo se ) C ( ) A ( .
Dimostrazione. Sappiamo che ) A ( = dim ) , , , (
2 1 n
a a a L e ) C ( ) , , , , (
2 1
b a a a L
n
.
Se il sistema compatibile, b ) , , , (
2 1 n
a a a L e, dunque, ) , , , , (
2 1
b a a a L
n
=
) , , , (
2 1 n
a a a L e ) C ( ) A ( .
Viceversa, se ) C ( ) A ( allora i sottospazi ) , , , (
2 1 n
a a a L e ) , , , , (
2 1
b a a a L
n
hanno la
stessa dimensione, ed essendo ) , , , (
2 1 n
a a a L

) , , , , (
2 1
b a a a L
n
, essi necessariamente
devono coincidere. Pertanto:
b ) , , , , (
2 1
b a a a L
n

=
) , , , (
2 1 n
a a a L
.
Dunque il sistema compatibile.
Teorema di unicit. Sia AX = B un sistema di m equazioni in n incognite. Se ) A ( = ) C ( = n, allora il
sistema compatibile ed ammette una sola soluzione.
Dimostrazione. Se ) A ( = ) C ( = n, il sistema compatibile per il teorema di Rouch Capelli.
Inoltre, essendo ) A ( = n, le colonne della matrice A sono linearmente indipendenti, dunque il vettore
b si pu esprimere in un solo modo come combinazione lineare dei vettori
n
a a a , , ,
2 1
e ci
comporta, per le considerazioni precedenti, lunicit della soluzione.
Teorema di Cramer. Un sistema lineare AX = B in n equazioni ed n incognite tale che il determinante di A
diverso da zero, ammette una sola soluzione ) , , , (
2 1 n
x x x x . Inoltre si ha:
n
N i ,
A
D
x
i
i

Dove
i
D la matrice ottenuta da
A
sostituendo alla sua i-esima colonna la colonna dei termini noti.
Calcolo delle soluzioni col metodo di Gauss
Esamineremo adesso un metodo, molto usato, per il calcolo delle soluzioni di un sistema lineare, noto come il
metodo di eliminazione di Gauss. Questo metodo consiste in una successione finita di operazioni sulle
equazioni di un sistema lineare:

scambiare tra loro due equazioni;

sommare ad una equazione unaltra per uno scalare diverso da zero.


Ogni volta che si esegue una operazione di questo tipo si ottiene un nuovo sistema che ha le stesse soluzioni.
Due sistemi aventi le stesse soluzioni si dicono equivalenti. Eseguendo queste operazioni opportunamente su
di un sistema si perviene ad un sistema equivalente che si risolve a prima vista.

Illustriamo questo metodo attraverso alcuni esempi.
Sistemi omogenei
Un sistema lineare si dice omogeneo se la colonna dei termini noti nulla.
Un sistema omogeneo AX = 0 ammette come soluzione il vettore nullo e, quindi, sempre compatibile. Per
il teorema di unicit, se il rango della matrice A coincide col numero delle incognite, il vettore nullo lunica
soluzione.
In particolare, se A una matrice quadrata, cio il sistema ha un numero di equazioni pari al numero delle
incognite, allora il sistema omogeneo ammette una sola soluzione, quella nulla, se e solo se det A 0.
Teorema. Linsieme delle soluzioni di un sistema lineare omogeneo, AX = 0, un sottospazio vettoriale di
K
n
di dimensione h = ) A ( n .
Teorema. Le soluzioni di un sistema lineare AX = B sono tutte e sole del tipo Z X X +
0
dove
0
X
una soluzione particolare di AX = B e
Z
una soluzione di AX = 0, sistema omogeneo associato ad AX =
B.
Dimostrazione. Sia
0
X una soluzione particolare di AX = B e Z una soluzione del sistema omogeneo
associato, allora A
0
X = B e AZ = 0 e quindi, sommando membro a membro, A
0
X +AZ = A(
0
X +Z) =
B. Pertanto (
0
X +Z)
0
X una soluzione di AX = B.
Viceversa, se Y una soluzione di AX = B e
0
X una soluzione particolare, allora AY - A
0
X = B B = 0
e, quindi, Y -
0
X una soluzione di AX = 0.
Facciamo vedere attraverso un esempio che ogni sottospazio vettoriale di K
n
, di dimensione h,

coincide con
lo spazio delle soluzioni di un sistema lineare omogeneo, la cui matrice associata ha rango n h.
APPLICAZIONI LINEARI
Definizione: Siano V e W due spazi vettoriali sullo stesso campo K. unapplicazione lineare f:VW so dice
applicazione lineare se: 1) per ogni v,v V f(v+v) = f(v)+f(v);
2) per ogni vV e kK f(kv) = kf(v).
Definizione: si dice immagine di f:VW il sottoinsieme W : Imf = {wW / esiste un v V:w=f(v)}
Definizione: si dice nucleo di f:VW il sottoinsieme di V : Kerf ={vV / f(v)=vettor nullow}
Proposizione: sia f:VW unapplicazione lineare tra due spazi vettoriali allora: Imf e` sottospazio di W
mentre il Kerf e sottospazio di V.
Proposizione: sia f:VW unapplicazione lineare, si dice che f e` iniettiva,o che e` un monomorfismo, se la
dimVdimW.si dice suriettiva, o che e` un epimorfismo, se dimVdimW.si dice
biiettiva, o isomorfismo,se dimV=dimW.
Definizione: si dice endomorfismo unapplicazione lineare di uno spazio vettoriale V in se`. e si dice
automorfismo un endomorfismo biiettivo.
Proposizione: sia f:VW unapplcazine lineare allora f e` iniettiva se, e soltanto se, Kerf=vettor nullo.
Dimostrazione: se Kerf=vettor nullo e se v,v V sono tali che f(v)=f(v). si ha che f(v-v)=vettor
nullo pertanto vvKerf = vettor nullo,cioe` f e` iniettiva.
Proposizine: sia f:VW unapplicazione lineare tra due spazi vettoriali sullo stesso campo K. se i vettori
v1,v2,.,vn di V sono l.d. anche f(v1),f(v2),.f(vn) sono l.d.
Dimostrazione: se i vettori v1,v2,.,vn sono l.d. allora esiste una loro combinazione lineare a
coefficenti non tutti nulli che da il vettor nullo, sia essa a1v1+a2v2++anvn= vettor
nullo. applicando lomomorfismo f ad ambo i membri si ottiene f(a1v1+a2v2+
+anvn)=a1f(v1)+a2f(v2)+..+anf(vn)=vettor nullo cioe` una combinazione lineare a
coefficienti non tutti nulli dei vettori f(v1),f(v2),.f(vn) che da il vettor
nullo.pertanto tali vettori sono l.d.
Proposizione: sia f:VW unapplicazione lineare tra due spazi vettoriali sullo stesso campo K,f e` iniettiva
se, e soltanto se, comunque si considerino i vettori v1,v2,.,vn di V l.i., i vettori
f(v1),f(v2),.f(vn) sono l.i.
Dimostrazione: siano v1,v2,.,vn di V l.i.dimostriamo che anche i vettori f(v1),f(v2),.f(vn) sono
l.i.procediamo per assurdo dicendo che sono l.d. allora esiste una loro
combinazione lineare a coefficienti non tutti nulli che da il vettor nullo, cioe`
a1f(v1)+a2f(v2)+..+anf(vn)=vettor nullo da cui si ha f(a1v1+a2v2++anvn)=vettor
nullo .pertanto il vettore a1v1+a2v2++anvnKerf che e` il solo vettor nullo, percio`
a1v1+a2v2++anvn= vettor nullo ma cio` e` un assurdo perche questa e una
combinazione lineare a coefficienti non tutti nulli di vettori l.i. che da il vettor
nullo.
Proposizione:sia f:VW unapplicazione lineare tra due spazi vettoriali sullo stesso campo K e sia V f.g. se
la sequenza B=(e1,e2,,en) e` una base di V allora [f(e1),f(e2),,f(en)] e` un sistema
di generatori per Imf.
Dimostrazione: sia w un vettore di Imf,allora f(v)=w. v e` esprimibile come combinazione lineare
dei vettori di B, cioe` v=a1e1+a2e2++anen da cui w = f(a1e1+a2e2++anen)=a1 f(e1)+
a2 f(e2)++ an f(en).cioe` la tesi
Teorema delle dimensioni: sia f:VW unapplicazione lineare tra due spazi vettoriali sullo stesso campo K
e sia V f.g. allora: dimKerf + dim Imf = dimV.
Dimostrazione: siano Imf e Kerf diversi dal vettor nullo. dato che V e` f.g. anche Imf e Kerf sono
f.g. sia Bk(u1,u2,,ur) una base di Kerf e sia BI(w1,w2,,ws) una base di Imf,
esistono per definizione di immagine s vettori v1,v2,.,vs in V tali che f(v1)=w1,
,f(vs)=ws .se dimostriamo che B=( u1,u2,,ur, v1,v2,.,vs) e` base di V abbiamo
dimostrato il teorema. B e` un sistema di generatori di V. sia infatti v un vettore di
V. allora f(v) e un vettore di Imf e quindi e` esprimibile come combinazione
lineare dei vettori di una base di Imf .pertanto f(v)= a1w1+..
+asws=a1f(v1)+..+ asf(vs) per le proprieta` di cui godono le applicazioni lineari il
vettore v-(a1v1++asvs) appartiene a Kerf e quindi e` esprimibile come
combinazione lineare dei vettori di una base di Kerf. quindi v-(a1v1++asvs)=
b1u1++brur, cioe` v= b1u1++brur+ a1v1++asvs,percio` B genera V.
Composizioni di applicazioni lineari
Siano V,W e U spazi vettoriali sullo stesso campo K ed f:VW e g:WU due applicazioni lineari.
definiamo lapplicazione composta g f :VU nel seguente modo: per ogni vV
(g f)(v)= g(f(v)). Si ferifica facilmente che g f e` lineare e quindi la
composizione di applicazioni lineari e` unapplicazione lineare.se poi f e g sono
isomorfismi anche g f e` unisomorfismo.
Proposizione: f:VW e` un isomorfismo allora anche f
-1
e` un isomorfismo
Rappresentazione di unapplicazione lineare
Definizione: Sia f:VnWm unapplicazione lineare tra due spazzi vettoriali di dimensione n e m
rispettivamente, sullo stesso campo K. Fissate B(e1,,en) e B(e1,..,em) due basi vi
Vn e di Wm rispettivamente, siano B:Vn(K)K
n
e B: Wm(K)K
m
due
isomorfismi. Si dice rappresentazione di f rispetto alle basi B e B lapplicazione
lineare f:K
n
K
m
tale che f = B f B
-1
.
La rappresentazione di unapplicazione lineare f rispetto a due basi fissate B e B, associa alle componenti di
un vettore v di V nella base B, le componenti in B del vettore f(v).cioe` un vettore
v di V si puo` esprimere come combinazione lineare dei vettori di B, quindi
v=x1e1+x2e2++xnen da cui f(v)= x1 f(e1)+ x2 f(e2)++ xn f(en). a sua volta f(v)
puo` essere espresso come combinazione lineare dei vettori di B e analogamente
anche i vettori f(e1),,f(en) possono essere espressi come combinazione lineare dei
vettori di B. dopo varie sostituzione e uguaglianze si ottiene il sistema che esprime
la rappresentazione di f nelle basi B e B:
y1= a11x1++a1nxn
y2=a21x1++a2nxn
.
.
ym=am1x1++amnxn
In forma matriciale la descrizione di questo sistema e`:Y=AX dove X e` la matrice colonna contenente le
componenti di un vettore v di V,Y e` la matrice colonna che contiene le
componenti di f(v) in B e A e` detta matrice della rappresentazione di f ,le sue
colonne contengono le componenti in B dei trasformati attraverso f dei vettori di
B.
Per le f composte si ha che se f:Y=FX e g: Z=GY g f : Z=(GF)X.
Teorema di binet: se esiste il prodotto GF delle matrici G ed F, allora il rango di GF al minimo tra il rango
di G e quello di F. inoltre se G e` quadrata e invertibile allora il rango di GF=al
rango di F.
Dimostrazione:siano F e G le matrici associate alle applicazioni lineari f:Y=FX e g: Z=GY.
poiche` per ipotesi esiste GF allora esiste anche g f. sia la dimensione di Imf e
Img sono maggiori o al piu` uguali alla dimensione di Im(g f). inoltre il rango
della matrice associata ad unapplicazione lineare fornisce la dim
dellimmagine.pertanto il rango di GF al minimo tra il rango di G e quello di F.
inoltre se G e` quadrata e invertibile allora lapplicazione g e` un isomorfismo e la
dim di Im(g f) coincide con la dim di Imf.
Cambiamento di base
Sia f:VnWm unapplicazione lineare tra due spazi vettoriali sullo stesso campo K. e siano f:Y=AX la
rappresentazione di f rispetto alle basi B di Vn e B di Wm e f:Y=AX la
rappresentazione di f rispetto alle basi B di Vn e B di Wm. siano Dn la matrice del
cambiamento di base da B a B cioe` E=DnE, e Cm la matrice del cambiamento di
base da B a B.da cio` la matrice della rappresentazione di f e`: A=
t
Cm
-1
A
t
Dn.
Matrici simili
Definizione: Due matrici A e A quadrate di ordine n si dicono simili, se esiste una matrice invertibile P,dello
stesso ordine n, tale che A=P
-1
AP.
ENDOMORFISMI
Autovalori ed autovettori
Definizione: sia f: VV un endomorfismo di uno spazio vettorile sul campo K. Un elemento kK si dice
autovalore per f se esiste un vettore non nullo vV detto autovettore tale che:
f(v) = kv.
Proposizione: sia f: VV un endomorfismo. Allora kK un autovalore per f se, e soltanto se, Kerfk da
vettor nullo e vV un autovettore di autovalore k se e soltanto se vKerfk.
Dimostrazione: k un autovalore per f se esisteun vettore non nullo per cui f(v)=kv e quindi se
fk(v)=f(v) kv =vettor nullo cio Kerfk dal vettor nullo. Ovviamente il vettore v
risulta essere un autovettore di autovalore k.
Proposizione: se f: VV un isomorfismo, allora kK un autovalore per f k
1
un autovalore per f
1
.
Dimostrazione: dato che f un isomorfismo k non nullo quindi esiste k
1
. sia ora v un
autovettore relativo all'autovalore k , sia cio f(v) = kv. Applicando l'isomorfismo
inverso f
1
si ottiene f
1
(f(v)) = f
1
(kv) e quindi v=k f
1
(v). moltiplicando ambo
imembri per k
1
si ottiene f
1
(v)= k
1
v quindi k
1
autovalore.
Definizione: sia f: VV un endomorfismo e sia kK un suo autovalore. Si dice autospazio associato a k, e
si indica Vk, l'insieme dei vettori vV tali che f(v) = kv.
Vk = {vV : f(v) = kv }.
Ricerca di autovalori, polinomio caratteristico
Definizione: se A una matrice quadrata di ordine n si dice polinomio caratteristico di A, e si indica pa(t), il
determinante della matrice A - t, cio: pa(t)= | A - t|. l'equazione pa(t)= | A -
t|=0 detta equazione caratteristica.
Teorema: sia f: VV un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, sia B una
base di V e sia A la matrice della rappresentazione di f rispetto alla base B. un
elemento k del campo K un autovalore di f se, e soltanto se, | A - k|=0. Un
vettore di v di V un autovettore di autovalore k se,e soltanto se, (A - k)Xv=0,
dove Xv la matrice colonna delle componenti di v in B.
Dimostrazione: lo scalare k autovalore di f se,e soltanto se, Kerfkdal vettor nullo, quindi se, e
soltanto se, il rango della matrice associato all'endomorfismo fk minore di n,
ovvero | A - k|=0. Mentre v autovettore di autovalore k se, e soltanto se,
vKerfk e questo equivale alla condizione (A - k)Xv=0.
Endomorfismi diagonalizzabili
Teorema: sia f: VV un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, e sia kK un
suo autovalore di molteplicit algebrica ak. Allora 1 gk ak.
Dimostrazione: sia gk = dimVk = r. possiamo quindi scegliere in Vk una base B' = (v1,v2,,vr) e,
applicando il teorema del completamento di una base, aggiungere n r vettori
vettori opportunamente scelti ai vettori di B' ottenendo una base B = (v1,v2,
..,vr,vr+1,,vn) di V. costruiamo la matrice della rappresentazione di f nella base
B. dato che f(v1)= kv1,.,f(vr) = kvr, la matrice A di detta rappresentazione sar:

A D E_
O F,
dove D una matrice diagonale di ordine r, O la matrice nulla avente n r
righe e r colonne, E una matrice avente r righe e n r colonne e F una matrice
quadrata di ordine n r. risulta che il polinomio caratteristico pa(t) coincide con il
prodotto dei polinomi caratteristici delle matrici D e F , quindi pa(t) = (k t)
r
pF(t).
pertanto la molteplicit di k come radice del polinomio caratteristico almeno r e
dunque akgk. poi evidente che essendo Vk dal vettor nullo la sua dimensione
almeno 1.
Definizione: un endomorfismo f: VV si dice diagonalizzabile se diagonale la matrice della sua
rappresentazione rispetto ad una qualunque base di V.
Teorema: sia f: VV un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, e siano k1,k2,
.,kr i suoi autovalori distinti. Sono equivalenti le seguenti proposizioni: 1) f
diagonalizzabile
2) V = Vk1Vk2..Vkr
3) le radici del polinomio caratteristico appartengono tutte al
campo K e sono tutte autovalori regolari cio la loro ak=gk.
Geometria
Prodotto scalare standard
definizione:siano v e w due vettori liberi non nulli . Fissato un punto O dello spazio consideriamo i segmenti
OP ed OQ tali che v=OP e w=OQ.langolo formato da v e w(vw) e` langolo
convesso formato dalle rette OP ed OQ. il prodotto scalare standard tra v e w e`:
vw= vwcosvw.
Basi ortonormali in V : siano v,w e u tre vettori liberi di V non nulli e a due a due ortogonali e di lunghezza
unitaria. poiche` risultano linearmente indipendenti, essi formano una base B di V.