Sei sulla pagina 1di 6

GEOMETRIA E ALGEBRA LINEARE

SPAZI VETTORIALI
Combinazioni lineari: sia V uno spazio vettoriale e siano v1,,vm m vettori di V e
a1am m numeri reali. Chiamiamo combinazione lineare dei vettori v1,,vm il vettore
v = a1v1++amvm.
Vettori linearmente indipendenti: se il fatto che la combinazione lineare
a1v1++amvm sia nulla implica che tutti i coefficienti siano nulli, diciamo che i vettori
v1,,vm sono linearmente indipendenti.
Generatori di uno spazio vettoriale: diremo che v1,,vm generano lo spazio vettoriale
V se V = L(v1,,vm), cio se i vettori v1,,vm appartengono a V e ogni elemento di V
una loro combinazione lineare.
Basi: un insieme ordinato di generatori linearmente indipendenti di V si chiama base
di V. La base composta dai versori fondamentali detta base canonica.
Lemma di Steinitz: siano V uno spazio vettoriale reale, {x1,,xm} un insieme di vettori
linearmente indipendenti di V, {y1,,yn} un insieme di vettori generatori di V.
Allora m n, cio i vettori l.i. sono in numerosit minore rispetto ai generatori.
Teorema di Steinitz: in uno spazio vettoriale V tutte le basi hanno lo stesso numero
di elementi.
Dimensione: il numero di elementi di ogni base detto dimensione (da notare che,
dato lo spazio vettoriale, il teorema di Steinitz stabilisce che la dimensione unica).
Dimensione di un sottospazio: se W un sottospazio di V, si ha che: dim W dim V e
dim W = dim V se e solo se W = V.
Formula di Grassmann: se W e Z sono sottospazi di V, allora:
dim (W+Z) = dim W + dim Z dim (WZ)

MATRICI
Teorema: lo spazio delle righe e lo spazio delle colonne di una matrice hanno la
stessa dimensione (da notare che, pur avendo la stessa dimensione, non sono lo
stesso spazio, perch non necessariamente uno sottoinsieme dellaltro).
Matrice ridotta: una matrice si dice ridotta per righe se in ogni riga non nulla c
almeno un elemento non nullo al di sotto del quale ci sono soltanto zeri. Il rango di
una matrice ridotta per righe pari al numero delle righe non nulle. La situazione
analoga se la matrice viene ridotta per colonne. Il rango di una matrice ridotta per
righe uguale a quello della stessa matrice ridotta per colonne.
La matrice A ridotta per righe e ha rango 3 (3 righe l.i. non nulle)
Trasformazioni per il calcolo del rango:
o Trasformazione E1: se ad una riga R si sostituisce la stessa riga moltiplicata per un
numero a 0, il rango resta invariato.
o Trasformazione E2: se si scambiano due righe tra di loro, il rango resta invariato.
o Trasformazione E3: se ad una riga R si sostituisce la stessa riga sommata con un
multiplo di unaltra riga, il rango resta invariato.
Matrice identica: matrice quadrata che ha solo 1 sulla diagonale principale, mentre
tutti gi altri elementi sono pari a 0. La matrice identica di ordine n si denota In.

Matrice inversa: date le matrici quadrate A e B di ordine n, se AB = BA = In, diciamo


che A invertibile e B linversa di A.
Teorema: data la matrice A sottospazio di Rn,n A invertibile se e solo se il rango di A
pari a n (quindi quando il rango massimo).
Matrice trasposta: data la matrice A, la trasposta di A (denotata tA) si ottiene
scambiando le righe con le colonne.
t

Matrice simmetrica: una matrice si dice simmetrica quando coincide con la sua
trasposta.
Teorema: il sistema lineare AX = 0 ammette anche soluzioni non nulle se e solo se il
determinante di A uguale a 0.

SISTEMI LINEARI E DETERMINANTI


Sistemi lineari: un sistema lineare un sistema di m equazioni lineari (cio di primo
grado) in n incognite.
Lemma: sia A una matrice con m righe ed n colonne e sia M la matrice che si ottiene
aggiungendo ad A una colonna. Allora A ed M hanno lo stesso rango se e soltanto se
la colonna aggiunta combinazione lineare delle colonne di A.
Soluzioni di un sistema: un sistema ridotto risolubile di rango p in n incognite ha n-p
soluzioni, cio esistono n-p incognite che si possono assegnare liberamente (dette
libere). Se n = p la soluzione del sistema unica.
Teorema di Rouch-Capelli: sia dato un sistema lineare AX = B di m equazioni in n
incognite, con il rango di A pari a p ed il rango di A|B pari a q:
o il sistema AX = B risolubile se e soltanto se il rango di A uguale al rango di A|B.
(Dal lemma sappiamo che, se i ranghi sono uguali, la matrice B dei coefficienti
c.l. delle colonne di A. I coefficienti della combinazione lineare sono proprio le
soluzioni del sistema AX = B).
o Se il sistema risolubile ci sono n-p soluzioni. P (rango di A e di A|B se il sistema
risolubile) di fatto il numero di equazioni linearmente indipendenti.
Teorema: la matrice quadrata A di ordine n invertibile se e solo se vale uno dei
seguenti fattori (tutti equivalenti tra di loro):
o la matrice ha rango n (rango massimo)
o ha le righe o le colonne linearmente indipendenti
Determinanti: si calcolano solo su matrici quadrate nei seguenti modi:
o Det. matrice 2x2:
sia

; allora

o Complemento algebrico: pari al numero (-1)i+jdetEij dove Eij la matrice 2x2


ottenuta cancellando la riga (detta i) e la colonna (detta j) dellelemento di cui
calcoliamo il complemento algebrico.
o Det. matrice generica: si calcola utilizzando la regola di Laplace.
Regola di Laplace: il determinante di A si ottiene moltiplicando gli elementi di una
riga (o di una colonna) per i rispettivi complementi algebrici e sommando i risultati.
Propriet dei determinanti:
1. Se la matrice B si ottiene da A mediante trasformazione:
E1 vale det B = a det A
E2 vale det B = - det A
E3 vale det B = det A
2. Det A = 0 se una riga o una colonna di A nulla.
3. Det A = 0 se due righe o due colonne sono uguali.
4. Det (tA) = det A.

5. Se una matrice ha tutti gli elementi sopra o sotto la diagonale principale nulli, il
determinante uguali al prodotto tra questi elementi. Tale matrice detta
triangolare.
Teorema di Binet: siano A e B due matrici quadrate dello stesso ordine. Si ha allora:
det(AB) = det(A) det(B)
Teorema sulle matrici invertibili:
o A invertibile se e soltanto se det(A) 0
o Se A invertibile
o Se det(A) 0, linversa

, dove C la trasposta della matrice

cofattore (la matrice cofattore la matrice dei complementi algebrici).


Matrice ortogonale: una matrice si dice ortogonale se verifica la relazione tA A = I,
cio se la matrice trasposta coincide con linversa.

APPLICAZIONI LINEARI
Applicazione (o funzione): unapplicazione f: S T tra due insiemi S e T associa ad
ogni elemento di S uno ed un solo elemento di T.
Applicazione lineare: unapplicazione f: V W, dove V e W sono spazi vettoriali, si
dice lineare se si ha:
o Per qualsiasi coppia di vettori w, z di V:
f(w + z) = f(w) + f(z)
o Per ogni vettore v di V ed ogni scalare a:
f(av) = a f(v)
Propriet delle applicazioni lineari: sia data unapplicazione lineare f: V W, dove V
un sottospazio di Rn e W un sottospazio di Rm. Allora f(0v) = 0w. Nota: se questa
propriet non vale, lapplicazione non lineare.
Nucleo di unapplicazione lineare: sia f: V W una applicazione lineare. Linsieme di
tutti gli elementi di V che hanno come immagine lo zero di W si dice nucleo, che
indichiamo come Ker(f).
Teorema: sia f: V W una applicazione lineare. Allora Ker(f) un sottospazio di V.
Teorema: sia f: V W una applicazione lineare. Allora Im(f) un sottospazio di W.
Applicazione iniettiva: unapplicazione f: V W si dice iniettiva se vettori distinti di
V hanno immagini distinte.
Teorema: unapplicazione lineare f iniettiva se e soltanto se Ker(f) contiene solo il
vettore nullo e nessun altro vettore.
Applicazione suriettiva: unapplicazione f: V W si dice suriettiva se per ogni
vettore w di W esiste almeno un vettore v in V tale che f(v) = w.
Teorema: unapplicazione lineare f: V W suriettiva se e solo se Im(f) = W. Poich
Im(f) un sottoinsieme di W, f suriettiva se e solo se dim(Im(f)) = dim(Mf) = dim W.
Teorema della dimensione (nullit pi rango): se f: V W unapplicazione lineare,
allora dim (Ker(f)) + dim (Im(f)) = dim (V).
Matrice associata: si dice matrice associata ad una applicazione lineare f: Rn Rm la
matrice A con m righe ed n colonne che ha come colonne i vettori f(e1), f(e2) dove
e1, e2 sono i vettori della base canonica di Rn. La matrice associata si denota Mf.
Matrice associata ad una base arbitraria: consideriamo una base arbitraria B di
componenti (b1, b2,, bn) di Rn, e calcoliamo f(b1), f(b2),, f(bn). Risulta ad esempio
f(b1) = c11b1++cn1bn, dove c11,, cn1 sono i coefficienti della combinazione lineare che
porta B in f(b1). La matrice associata ad f mediante la base b, denotata Mf(B), la
matrice che ha per colonne tali coefficienti.
Teorema: data lapplicazione lineare f: Rn Rm, vero che f(X) = AX, dove A la
matrice associata ad f e X un vettore di Rn.
Lemma: sia f: V W unapplicazione lineare e sia (e1, e2,, en) una base di V. Allora
f(e1), f(e2),, f(en) generano Im(f) (cio applicando la funzione ai vettori che generano
V, si trovano i vettori che generano limmagine).
o Corollario: se f: Rn Rm lineare, Im(f) coincide con lo spazio delle colonne di Mf.

AUTOVALORI E AUTOVETTORI
Endomorfismo: unapplicazione lineare f: Rn Rn detta endomorfismo.
Autovalore: dato lendomorfismo f: Rn Rn un numero reale un autovalore di f se
esiste un vettore di Rn non nullo tale che si abbia f(v) = v.
Gli autovalori si trovano imponendo che det(A-I) = 0, dove I la matrice identit, A
la matrice associata alla funzione f e sono gli autovalori. Definiamo polinomio
caratteristico il polinomio p() = det(A-I).
Autovettore: ogni vettore di v tale che f(v) = v si dice autovettore di f relativo a . Gli
autovettori si trovano risolvendo il sistema (A-I)X = 0, dove I la matrice identit, A
la matrice associata alla funzione f, sono gli autovalori e X contiene le variabili.
Autospazio: linsieme di tutti gli autovettori relativi allautovalore si chiama
autospazio relativo a e si denota V.
Teorema: se un autovalore si ha a 1 mg ma, dove ma la molteplicit algebrica
dellautovalore e mg la molteplicit geometrica dellautovalore .
La molteplicit geometrica per definizione la dimensione dellautospazio relativo
allautovalore , denotata dim(V).
Diagonalizzabilit: una matrice quadrata A di ordine n diagonalizzabile se e solo se
lendomorfismo ad esso associato semplice, cio:
o tutte le radici del polinomio caratteristico sono reali.
o per ogni autovalore ma = mg (molteplicit algebrica = molteplicit geometrica).
Osservazione: se le radici del polinomio caratteristico sono tutte reali e distinte (cio
di molteplicit algebrica 1), la matrice diagonalizzabile.
Teorema spettrale: sia A una matrice simmetrica (cio A coincide con la sua
trasposta, A = tA); allora la matrice A diagonalizzabile.

Potrebbero piacerti anche