Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
SPAZI VETTORIALI
Combinazioni lineari: sia V uno spazio vettoriale e siano v1,,vm m vettori di V e
a1am m numeri reali. Chiamiamo combinazione lineare dei vettori v1,,vm il vettore
v = a1v1++amvm.
Vettori linearmente indipendenti: se il fatto che la combinazione lineare
a1v1++amvm sia nulla implica che tutti i coefficienti siano nulli, diciamo che i vettori
v1,,vm sono linearmente indipendenti.
Generatori di uno spazio vettoriale: diremo che v1,,vm generano lo spazio vettoriale
V se V = L(v1,,vm), cio se i vettori v1,,vm appartengono a V e ogni elemento di V
una loro combinazione lineare.
Basi: un insieme ordinato di generatori linearmente indipendenti di V si chiama base
di V. La base composta dai versori fondamentali detta base canonica.
Lemma di Steinitz: siano V uno spazio vettoriale reale, {x1,,xm} un insieme di vettori
linearmente indipendenti di V, {y1,,yn} un insieme di vettori generatori di V.
Allora m n, cio i vettori l.i. sono in numerosit minore rispetto ai generatori.
Teorema di Steinitz: in uno spazio vettoriale V tutte le basi hanno lo stesso numero
di elementi.
Dimensione: il numero di elementi di ogni base detto dimensione (da notare che,
dato lo spazio vettoriale, il teorema di Steinitz stabilisce che la dimensione unica).
Dimensione di un sottospazio: se W un sottospazio di V, si ha che: dim W dim V e
dim W = dim V se e solo se W = V.
Formula di Grassmann: se W e Z sono sottospazi di V, allora:
dim (W+Z) = dim W + dim Z dim (WZ)
MATRICI
Teorema: lo spazio delle righe e lo spazio delle colonne di una matrice hanno la
stessa dimensione (da notare che, pur avendo la stessa dimensione, non sono lo
stesso spazio, perch non necessariamente uno sottoinsieme dellaltro).
Matrice ridotta: una matrice si dice ridotta per righe se in ogni riga non nulla c
almeno un elemento non nullo al di sotto del quale ci sono soltanto zeri. Il rango di
una matrice ridotta per righe pari al numero delle righe non nulle. La situazione
analoga se la matrice viene ridotta per colonne. Il rango di una matrice ridotta per
righe uguale a quello della stessa matrice ridotta per colonne.
La matrice A ridotta per righe e ha rango 3 (3 righe l.i. non nulle)
Trasformazioni per il calcolo del rango:
o Trasformazione E1: se ad una riga R si sostituisce la stessa riga moltiplicata per un
numero a 0, il rango resta invariato.
o Trasformazione E2: se si scambiano due righe tra di loro, il rango resta invariato.
o Trasformazione E3: se ad una riga R si sostituisce la stessa riga sommata con un
multiplo di unaltra riga, il rango resta invariato.
Matrice identica: matrice quadrata che ha solo 1 sulla diagonale principale, mentre
tutti gi altri elementi sono pari a 0. La matrice identica di ordine n si denota In.
Matrice simmetrica: una matrice si dice simmetrica quando coincide con la sua
trasposta.
Teorema: il sistema lineare AX = 0 ammette anche soluzioni non nulle se e solo se il
determinante di A uguale a 0.
; allora
5. Se una matrice ha tutti gli elementi sopra o sotto la diagonale principale nulli, il
determinante uguali al prodotto tra questi elementi. Tale matrice detta
triangolare.
Teorema di Binet: siano A e B due matrici quadrate dello stesso ordine. Si ha allora:
det(AB) = det(A) det(B)
Teorema sulle matrici invertibili:
o A invertibile se e soltanto se det(A) 0
o Se A invertibile
o Se det(A) 0, linversa
APPLICAZIONI LINEARI
Applicazione (o funzione): unapplicazione f: S T tra due insiemi S e T associa ad
ogni elemento di S uno ed un solo elemento di T.
Applicazione lineare: unapplicazione f: V W, dove V e W sono spazi vettoriali, si
dice lineare se si ha:
o Per qualsiasi coppia di vettori w, z di V:
f(w + z) = f(w) + f(z)
o Per ogni vettore v di V ed ogni scalare a:
f(av) = a f(v)
Propriet delle applicazioni lineari: sia data unapplicazione lineare f: V W, dove V
un sottospazio di Rn e W un sottospazio di Rm. Allora f(0v) = 0w. Nota: se questa
propriet non vale, lapplicazione non lineare.
Nucleo di unapplicazione lineare: sia f: V W una applicazione lineare. Linsieme di
tutti gli elementi di V che hanno come immagine lo zero di W si dice nucleo, che
indichiamo come Ker(f).
Teorema: sia f: V W una applicazione lineare. Allora Ker(f) un sottospazio di V.
Teorema: sia f: V W una applicazione lineare. Allora Im(f) un sottospazio di W.
Applicazione iniettiva: unapplicazione f: V W si dice iniettiva se vettori distinti di
V hanno immagini distinte.
Teorema: unapplicazione lineare f iniettiva se e soltanto se Ker(f) contiene solo il
vettore nullo e nessun altro vettore.
Applicazione suriettiva: unapplicazione f: V W si dice suriettiva se per ogni
vettore w di W esiste almeno un vettore v in V tale che f(v) = w.
Teorema: unapplicazione lineare f: V W suriettiva se e solo se Im(f) = W. Poich
Im(f) un sottoinsieme di W, f suriettiva se e solo se dim(Im(f)) = dim(Mf) = dim W.
Teorema della dimensione (nullit pi rango): se f: V W unapplicazione lineare,
allora dim (Ker(f)) + dim (Im(f)) = dim (V).
Matrice associata: si dice matrice associata ad una applicazione lineare f: Rn Rm la
matrice A con m righe ed n colonne che ha come colonne i vettori f(e1), f(e2) dove
e1, e2 sono i vettori della base canonica di Rn. La matrice associata si denota Mf.
Matrice associata ad una base arbitraria: consideriamo una base arbitraria B di
componenti (b1, b2,, bn) di Rn, e calcoliamo f(b1), f(b2),, f(bn). Risulta ad esempio
f(b1) = c11b1++cn1bn, dove c11,, cn1 sono i coefficienti della combinazione lineare che
porta B in f(b1). La matrice associata ad f mediante la base b, denotata Mf(B), la
matrice che ha per colonne tali coefficienti.
Teorema: data lapplicazione lineare f: Rn Rm, vero che f(X) = AX, dove A la
matrice associata ad f e X un vettore di Rn.
Lemma: sia f: V W unapplicazione lineare e sia (e1, e2,, en) una base di V. Allora
f(e1), f(e2),, f(en) generano Im(f) (cio applicando la funzione ai vettori che generano
V, si trovano i vettori che generano limmagine).
o Corollario: se f: Rn Rm lineare, Im(f) coincide con lo spazio delle colonne di Mf.
AUTOVALORI E AUTOVETTORI
Endomorfismo: unapplicazione lineare f: Rn Rn detta endomorfismo.
Autovalore: dato lendomorfismo f: Rn Rn un numero reale un autovalore di f se
esiste un vettore di Rn non nullo tale che si abbia f(v) = v.
Gli autovalori si trovano imponendo che det(A-I) = 0, dove I la matrice identit, A
la matrice associata alla funzione f e sono gli autovalori. Definiamo polinomio
caratteristico il polinomio p() = det(A-I).
Autovettore: ogni vettore di v tale che f(v) = v si dice autovettore di f relativo a . Gli
autovettori si trovano risolvendo il sistema (A-I)X = 0, dove I la matrice identit, A
la matrice associata alla funzione f, sono gli autovalori e X contiene le variabili.
Autospazio: linsieme di tutti gli autovettori relativi allautovalore si chiama
autospazio relativo a e si denota V.
Teorema: se un autovalore si ha a 1 mg ma, dove ma la molteplicit algebrica
dellautovalore e mg la molteplicit geometrica dellautovalore .
La molteplicit geometrica per definizione la dimensione dellautospazio relativo
allautovalore , denotata dim(V).
Diagonalizzabilit: una matrice quadrata A di ordine n diagonalizzabile se e solo se
lendomorfismo ad esso associato semplice, cio:
o tutte le radici del polinomio caratteristico sono reali.
o per ogni autovalore ma = mg (molteplicit algebrica = molteplicit geometrica).
Osservazione: se le radici del polinomio caratteristico sono tutte reali e distinte (cio
di molteplicit algebrica 1), la matrice diagonalizzabile.
Teorema spettrale: sia A una matrice simmetrica (cio A coincide con la sua
trasposta, A = tA); allora la matrice A diagonalizzabile.